Il suit les conseils diététiques de ChatGPT et développe une psychose
Une récente étude de cas médicale a mis en lumière les conséquences alarmantes de la dépendance à l’intelligence artificielle pour des conseils personnels critiques, particulièrement en matière de santé. Des médecins de l’Université de Washington ont documenté un incident troublant où un homme a développé une psychose attribuée à une intoxication au bromure après avoir méticuleusement suivi les recommandations diététiques générées par ChatGPT. Ce récit édifiant sert de rappel brutal des pièges potentiels lorsque des outils d’IA sophistiqués sont utilisés sans surveillance humaine.
L’épreuve de l’homme a commencé après qu’il ait cherché à réduire son apport en sel de table (chlorure de sodium), une préoccupation diététique courante. Incapable de trouver des conseils spécifiques sur le remplacement du chlorure, il s’est tourné vers ChatGPT, demandant apparemment à l’IA comment le chlorure pouvait être substitué en toute sécurité. Selon le rapport de cas, ChatGPT a suggéré le bromure comme alternative. Faisant confiance à cette guidance, l’homme a commencé à consommer du bromure de sodium, qu’il a acheté en ligne, pendant une période de trois mois.
Les composés de bromure ont une histoire complexe en médecine. Au début du 20e siècle, ils étaient largement utilisés pour traiter diverses affections, y compris l’anxiété et l’insomnie. Cependant, les professionnels de la santé ont finalement reconnu que des doses élevées ou chroniques de bromure pouvaient être toxiques, entraînant ironiquement des problèmes neuropsychiatriques – une condition connue sous le nom de bromisme. Dans les années 1980, le bromure avait été largement abandonné dans la plupart des médicaments, et les cas d’intoxication sont devenus extrêmement rares, bien qu’il apparaisse encore dans certains produits vétérinaires et compléments alimentaires. L’incident actuel marque ce qui est considéré comme le premier cas documenté d’intoxication au bromure directement influencé par les conseils de l’IA.
La gravité de l’état de l’homme est devenue apparente lorsqu’il a été admis aux urgences locales. Il présentait une agitation aiguë et de la paranoïa, exprimant des craintes que son voisin ne l’empoisonne. Malgré la soif, il a refusé de boire l’eau fournie par le personnel. Ses symptômes se sont intensifiés pour inclure des hallucinations visuelles et auditives vives, culminant en un épisode psychotique complet. Ses tentatives d’évasion ont conduit les médecins à le placer sous contrainte psychiatrique involontaire en raison de sa grave déficience mentale.
Le personnel médical, soupçonnant un bromisme tôt dans son traitement, a administré des fluides intraveineux et des médicaments antipsychotiques, ce qui a progressivement stabilisé son état. Une fois cohérent, l’homme a divulgué son régime de trois mois de bromure de sodium, guidé par ChatGPT. Lorsque les médecins ont testé plus tard ChatGPT 3.5 avec une requête similaire, l’IA a en effet suggéré le bromure comme un remplacement possible pour le chlorure. Bien que la réponse de l’IA ait apparemment noté que le contexte du remplacement était important, elle a échoué de manière critique à émettre des avertissements sur les dangers de la consommation de bromure ou à s’enquérir des raisons de l’utilisateur pour rechercher de telles informations.
Heureusement, l’homme a fait une récupération lente mais constante. Il a finalement été sevré des médicaments antipsychotiques et est sorti de l’hôpital après trois semaines, restant stable lors d’un rendez-vous de suivi deux semaines plus tard. Les médecins impliqués dans le cas ont souligné un paradoxe crucial : bien que les outils d’IA comme ChatGPT détiennent un potentiel immense pour démocratiser l’information scientifique et combler le fossé entre les experts et le grand public, ils comportent également un risque significatif de disséminer des informations décontextualisées ou trompeuses. Ils ont noté, avec un euphémisme considérable, qu’un expert médical humain ne recommanderait presque certainement jamais de substituer le bromure au chlorure dans un régime alimentaire. Ce cas sert de puissant rappel que si l’IA peut offrir de vastes quantités de données, le discernement et la sagesse de l’expertise humaine restent irremplaçables, surtout lorsque la santé et le bien-être sont en jeu.