ChatGPT rend fou: Un homme remplace le sel par du bromure de sodium

Arstechnica

Un homme de 60 ans, se présentant comme ayant des antécédents en études de nutrition, s’est lancé dans une expérience diététique après avoir consulté ChatGPT : il visait à éliminer tout le chlore, y compris le sel de table commun (chlorure de sodium), de son alimentation. Ses conversations avec le chatbot d’intelligence artificielle l’ont amené à croire que le bromure de sodium, qu’il a acheté en ligne, serait un substitut approprié au chlorure de sodium.

Trois mois après le début de ce régime inhabituel, l’homme s’est présenté aux urgences locales, manifestant une profonde détresse. Il était gravement paranoïaque, convaincu que son voisin tentait de l’empoisonner, et, malgré une soif extrême, refusait l’eau offerte par le personnel hospitalier. Il a dit aux médecins qu’il distillait sa propre eau à la maison et qu’il adhérait à un régime végétarien très restrictif. Il a omis, de manière cruciale, toute mention de la consommation de bromure de sodium ou de sa dépendance à ChatGPT.

Son comportement erratique et sa détresse aiguë ont déclenché une batterie complète de tests de laboratoire. Ceux-ci ont révélé de multiples carences en micronutriments, en particulier en vitamines clés. Cependant, la découverte la plus alarmante a été que l’homme souffrait d’un cas grave de “bromisme”, une condition causée par une accumulation excessive de brome dans le corps.

Le bromisme était une affection étonnamment courante il y a un siècle, responsable d’environ 8 à 10 pour cent de toutes les admissions psychiatriques aux États-Unis. À cette époque, les sels contenant du bromure, tels que le bromure de potassium, étaient largement utilisés comme sédatifs pour soulager l’anxiété, faire face à la détresse émotionnelle ou induire le sommeil. Malheureusement, le bromure s’accumule facilement dans le corps humain, et des niveaux excessifs altèrent la fonction nerveuse. Cela peut entraîner un large éventail de problèmes débilitants, y compris des éruptions cutanées grotesques et d’importants problèmes de santé mentale, collectivement connus sous le nom de bromisme. La Food and Drug Administration (FDA) des États-Unis a interdit les sédatifs à base de bromure du marché dès 1989, rendant le bromisme largement inconnu des Américains modernes. (Cependant, il était encore possible d’ingérer du bromure via l’huile végétale bromée, autrefois un ingrédient de certains colas, jusqu’à ce que la FDA le retire des produits alimentaires américains en 2024.)

Au cours de sa première journée à l’hôpital, l’état de l’homme s’est détérioré. Sa paranoïa s’est intensifiée, et il a commencé à éprouver des hallucinations auditives et visuelles, culminant par une tentative d’évasion de l’établissement. Suite à cela, il a été placé en détention psychiatrique involontaire et a reçu un médicament antipsychotique. Pour combattre le bromisme, les médecins ont initié une “diurèse saline agressive”, un traitement impliquant l’administration de grands volumes de liquides et d’électrolytes pour éliminer l’excès de bromure de son système par la miction. Ce processus était critique, car le niveau de bromure de l’homme a été mesuré à un étonnant 1 700 mg/L, dépassant largement la fourchette de référence saine de 0,9 à 7,3 mg/L. En fin de compte, l’homme a enduré trois semaines de psychose terrifiante et d’hospitalisation pour une condition entièrement évitable.

Ce n’est qu’après que sa psychose ait été maîtrisée pendant son séjour à l’hôpital que l’homme a commencé à raconter la genèse de sa maladie. Sa préoccupation concernant l’excès de sel de table l’avait amené à éliminer le chlorure de sodium de son alimentation, ce qui l’a à son tour conduit à consulter ChatGPT, et finalement à sa décision de le remplacer par du bromure de sodium.

Les médecins qui ont documenté cette étude de cas extraordinaire pour Annals of Internal Medicine: Clinical Cases ont noté qu’ils n’avaient pas pu accéder aux journaux spécifiques de ChatGPT de l’homme, bien qu’ils aient présumé qu’il utilisait soit ChatGPT 3.5, soit 4.0. Bien qu’il ne soit pas clair si le chatbot lui a explicitement demandé de consommer du bromure de sodium, ils ont reconnu que les sels de bromure peuvent être utilisés comme substitut du sel de table, mais uniquement dans des applications industrielles comme les produits de nettoyage ou les traitements de piscine, non pour la consommation humaine.

Lorsque l’équipe médicale a mené ses propres requêtes en utilisant ChatGPT 3.5, elle a constaté que l’IA mentionnait le bromure dans ses réponses. Cependant, elle a également indiqué que le contexte était crucial et que le bromure n’était pas adapté à toutes les utilisations. De manière significative, l’IA “n’a pas fourni d’avertissement de santé spécifique, ni n’a demandé pourquoi nous voulions savoir, comme nous supposons qu’un professionnel de la santé le ferait”, ont observé les médecins. En revanche, la version gratuite actuelle de ChatGPT semble être plus prudente. Lorsqu’on lui demande de remplacer le chlorure alimentaire, elle cherche d’abord des éclaircissements sur l’objectif de l’utilisateur, offrant des options telles que la réduction du sel, l’évitement des composés chlorés toxiques ou le remplacement des agents de nettoyage. Bien qu’elle liste toujours le bromure comme alternative, elle le fait uniquement dans le contexte du nettoyage ou de la désinfection, notant son utilisation dans les spas.

Ce cas sert de récit édifiant poignant pour l’ère de l’information moderne. Livré à lui-même, sans les compétences de pensée critique nécessaires ou les connaissances spécifiques au domaine pour interpréter les réponses générées par l’IA, la “recherche personnelle” de l’homme l’a mené sur un chemin dangereux. À une époque où de vastes quantités d’informations sont facilement disponibles, cet incident souligne le besoin critique de compétences de vérification de l’information, de conseils d’experts et d’un scepticisme sain lorsque l’on cherche des conseils de santé auprès de sources non vérifiées.