Un conseil de santé de ChatGPT provoque une maladie psychiatrique rare
Une étude de cas récente publiée dans les Annals of Internal Medicine détaille un incident surprenant où un homme a involontairement provoqué un bromisme, un trouble psychiatrique largement disparu depuis des décennies, après avoir suivi les conseils de santé du chatbot d’intelligence artificielle, ChatGPT. Ce cas met en lumière les dangers potentiels de l’automédication ou de la modification de son régime alimentaire sur la base d’informations provenant de grands modèles linguistiques sans supervision médicale professionnelle.
L’homme de 60 ans s’est présenté aux urgences, présentant de graves hallucinations auditives et visuelles, convaincu que son voisin l’empoisonnait. Après avoir reçu un traitement pour la déshydratation, il a révélé que ses symptômes provenaient d’un régime auto-imposé, très restrictif, visant à éliminer complètement le sel. Pendant trois mois, il avait remplacé tout le sel de table (chlorure de sodium) dans sa nourriture par du bromure de sodium, une substance contrôlée principalement connue comme anticonvulsivant pour chiens, mais également utilisée pour le nettoyage des piscines et comme pesticide. Il a déclaré que sa décision était basée sur des informations qu’il avait recueillies auprès de ChatGPT.
Selon l’étude de cas, l’homme, fort de ses antécédents universitaires en nutrition, a cherché à mener une expérience personnelle pour éliminer le chlorure de son alimentation. Ses recherches sur les effets négatifs du chlorure de sodium l’ont conduit à ChatGPT, où il a posé des questions sur les substituts du chlorure. Le chatbot a suggéré le bromure comme un remplacement potentiel, bien qu’il ait vaguement fait allusion à d’autres usages comme le nettoyage. Cette interaction l’a amené à se procurer du bromure de sodium en ligne et à commencer son régime dangereux.
Une enquête plus approfondie sur le comportement du chatbot a confirmé son rôle. Lorsqu’on lui a posé une question comme « par quoi le chlorure peut-il être remplacé ? », ChatGPT a proposé « Bromure de sodium (NaBr) : Remplacer le chlorure par le bromure » comme suggestion directe. Bien que le bot ait ensuite demandé du contexte et offert des alternatives plus sûres comme le MSG lorsque « dans les aliments » était spécifié, il a crucialement omis d’émettre un avertissement clair contre l’ingestion de bromure de sodium. De même, les auteurs de l’étude de cas ont noté que lorsqu’ils ont tenté de recréer le scénario, le modèle d’IA n’a pas posé de questions sur l’intention de l’utilisateur, une pratique standard pour les professionnels de la santé humaine.
L’auto-intoxication de l’homme a entraîné un épisode psychotique grave, caractérisé par la paranoïa et des hallucinations vives. Le bromisme, bien que rare au 21e siècle, était une préoccupation majeure de santé publique dans les années 1800 et au début des années 1900, une étude de 1930 indiquant qu’il affectait jusqu’à 8 % des admissions dans les hôpitaux psychiatriques. Le déclin des cas a suivi la réglementation du bromure par la Food and Drug Administration (FDA) des États-Unis entre 1975 et 1989. Après trois semaines d’hospitalisation, les symptômes psychotiques de l’homme ont lentement diminué, et il s’est complètement rétabli.
Cet incident souligne les défis complexes et les considérations éthiques entourant l’intégration croissante de l’IA dans la gestion de la santé personnelle. Bien que les outils d’IA puissent offrir des informations et un soutien précieux dans les soins de santé, comme l’a souligné la récente annonce du PDG d’OpenAI, Sam Altman, concernant les « complétions sûres » dans ChatGPT 5 pour les questions ambiguës ou nuisibles, et les anecdotes de son utilisation pour comprendre les diagnostics médicaux, ce cas sert de rappel brutal de la nécessité critique d’une supervision humaine et d’une consultation médicale professionnelle lorsqu’il s’agit d’informations liées à la santé, en particulier lorsqu’elles impliquent l’auto-traitement ou des modifications alimentaires. La ligne entre l’information utile et la désinformation dangereuse peut être périlleusement mince lorsque l’IA est consultée sans discernement critique.