Hospitalisé après des conseils médicaux toxiques de ChatGPT

Futurism

Un incident récent et alarmant a mis en lumière la dangereuse intersection de l’intelligence artificielle et de la santé personnelle, révélant les dangers critiques de faire aveuglément confiance à l’IA pour des conseils médicaux. Un homme de 60 ans, cherchant à éliminer le sel de son alimentation, s’est involontairement empoisonné avec du bromure de sodium après avoir suivi une suggestion de ChatGPT d’OpenAI. Cette réaction grave, connue sous le nom de bromisme, a conduit à son hospitalisation et est considérée par les médecins comme le premier cas documenté d’empoisonnement au bromure lié à l’IA.

Le parcours du patient aux urgences, tel que détaillé dans un nouvel article publié dans les Annals of Internal Medicine, a commencé après qu’il ait consulté ChatGPT au sujet de changements alimentaires. Inspiré par ses études passées en nutrition, il a cherché à éliminer le chlorure de son alimentation et, sur une période de trois mois, a remplacé le sel de table commun (chlorure de sodium) par du bromure de sodium, une substance qu’il a achetée en ligne. Le bromure de sodium, autrefois utilisé dans les médicaments contre l’anxiété et l’insomnie, a été progressivement abandonné il y a des décennies aux États-Unis en raison de ses graves risques pour la santé et se trouve maintenant principalement dans les produits industriels, les pesticides, les nettoyants de piscine et comme anticonvulsivant canin.

À son arrivée à l’hôpital, l’homme a présenté des symptômes psychiatriques profondément préoccupants, notamment une paranoïa intense et de vives hallucinations auditives et visuelles, exprimant même la conviction que son voisin l’empoisonnait. Son état a rapidement dégénéré en un épisode psychotique, nécessitant une garde psychiatrique involontaire. Les médecins lui ont administré des fluides intraveineux et des médicaments antipsychotiques, et à mesure que son état mental s’améliorait progressivement sur trois semaines, il a pu révéler son utilisation de ChatGPT pour des conseils alimentaires. Les médecins ont ensuite confirmé la recommandation problématique du chatbot en posant une question similaire à ChatGPT, qui a de nouveau suggéré le bromure sans avertissements adéquats sur sa toxicité. L’homme a finalement fait un rétablissement complet, étant sorti de l’hôpital et restant stable lors d’une visite de suivi.

Le bromisme, la condition qu’il a développée, est un “toxidrome” rare résultant d’une surexposition chronique au bromure. Ses symptômes sont divers et peuvent inclure des manifestations neurologiques et psychiatriques telles que confusion, irritabilité, perte de mémoire et psychose, ainsi que des problèmes gastro-intestinaux et dermatologiques comme des éruptions cutanées ressemblant à de l’acné et une soif excessive. La rareté des cas de bromisme humain aujourd’hui souligne la nature dangereuse des conseils non avertis de l’IA.

Cet incident sert de sévère avertissement quant aux limites inhérentes et aux dangers potentiels de se fier aux grands modèles linguistiques pour des informations critiques sur la santé. Les chatbots IA, bien que puissants, peuvent “halluciner” ou générer de fausses réponses, souvent sans contexte suffisant ni avertissements de sécurité. L’industrie de la santé au sens large reconnaît de plus en plus ces risques. ECRI, une organisation à but non lucratif pour la sécurité des patients, a identifié l’utilisation des modèles d’IA dans les soins de santé sans surveillance appropriée comme le danger technologique le plus important pour la santé en 2025. Les préoccupations vont des biais intégrés dans les données d’entraînement menant à des résultats de santé disparates au risque d’informations inexactes ou trompeuses et au potentiel de dégradation des performances du système d’IA au fil du temps.

En réponse à ces préoccupations croissantes, les organismes de réglementation et les organisations de santé du monde entier s’efforcent d’établir des lignes directrices et une surveillance. L’Organisation Mondiale de la Santé (OMS) a publié des considérations pour la réglementation de l’IA dans la santé, soulignant la transparence et la documentation. Aux États-Unis, les initiatives fédérales, y compris le décret exécutif du président Joe Biden sur l’IA et la règle finale sur les données de santé, la technologie et l’interopérabilité (HTI-1), visent à garantir que l’IA est sûre, sécurisée et digne de confiance dans les soins de santé. Des lois étatiques émergent également, certaines, comme l’AB 3030 de Californie, exigeant des prestataires de soins de santé qu’ils divulguent l’utilisation de l’IA aux patients et obtiennent leur consentement. Un principe clé de ces efforts est que l’IA ne peut pas être la seule base des décisions médicales ; l’examen et la surveillance humains restent primordiaux. La FDA renforce également activement sa réglementation des produits médicaux basés sur l’IA, en se concentrant sur un cadre flexible mais fondé sur la science pour garantir à la fois l’innovation et la sécurité des patients.

Bien que l’IA ait un potentiel immense pour améliorer les flux de travail cliniques et soutenir les professionnels de la santé, cet incident rappelle avec force que ces outils ne remplacent pas les conseils médicaux qualifiés. Le besoin continu de garanties robustes, de clauses de non-responsabilité claires, d’une validation rigoureuse et, surtout, d’une surveillance humaine, est indéniable à mesure que l’IA continue de s’intégrer dans nos vies quotidiennes.