ChatGPT-Rat führt zu Psychose: Mann tauscht Salz gegen Bromid
Ein 60-jähriger Mann, der sich selbst als ernährungswissenschaftlich vorgebildet bezeichnete, begann nach Rücksprache mit ChatGPT ein Ernährungsexperiment: Er wollte jegliches Chlor, einschließlich gewöhnlichen Kochsalzes (Natriumchlorid), aus seiner Ernährung eliminieren. Seine Gespräche mit dem künstlichen Intelligenz-Chatbot führten ihn zu der Annahme, dass Natriumbromid, das er online bezog, ein geeigneter Ersatz für Natriumchlorid sei.
Drei Monate nach Beginn dieses ungewöhnlichen Regimes wurde der Mann mit tiefem Leid in die örtliche Notaufnahme eingeliefert. Er war schwer paranoid, überzeugt, sein Nachbar versuche ihn zu vergiften, und weigerte sich trotz extremen Durstes, Wasser vom Krankenhauspersonal anzunehmen. Er erzählte den Ärzten, er destilliere sein eigenes Wasser zu Hause und halte sich an eine stark restriktive vegetarische Diät. Entscheidend war, dass er die Einnahme von Natriumbromid oder seine Abhängigkeit von ChatGPT nicht erwähnte.
Sein erratisches Verhalten und seine akute Not veranlassten eine umfassende Reihe von Labortests. Diese zeigten multiple Mikronährstoffmängel, insbesondere bei wichtigen Vitaminen. Die alarmierendste Entdeckung war jedoch, dass der Mann an einem schweren Fall von „Bromismus“ litt, einem Zustand, der durch eine übermäßige Ansammlung von Brom im Körper verursacht wird.
Bromismus war vor einem Jahrhundert eine überraschend häufige Krankheit, die schätzungsweise für 8 bis 10 Prozent aller psychiatrischen Einweisungen in den Vereinigten Staaten verantwortlich war. In dieser Ära wurden bromidhaltige Salze, wie Kaliumbromid, weit verbreitet als Beruhigungsmittel eingesetzt, um Angst zu lindern, emotionalen Stress zu bewältigen oder den Schlaf zu fördern. Leider reichert sich Brom leicht im menschlichen Körper an, und übermäßige Mengen beeinträchtigen die Nervenfunktion. Dies kann zu einer Vielzahl von schwächenden Problemen führen, einschließlich grotesker Hautausschläge und erheblicher psychischer Probleme, die zusammen als Bromismus bekannt sind. Die US-amerikanische Food and Drug Administration (FDA) verbot Bromid-Beruhigungsmittel bis 1989 vom Markt, wodurch Bromismus für moderne Amerikaner weitgehend unbekannt wurde. (Obwohl es immer noch möglich war, Bromid über bromiertes Pflanzenöl aufzunehmen, das einst ein Bestandteil einiger Colas war, bis die FDA es 2024 aus US-Lebensmitteln entfernte.)
Im Laufe seines ersten Tages im Krankenhaus verschlechterte sich der Zustand des Mannes. Seine Paranoia verstärkte sich, und er begann, auditive und visuelle Halluzinationen zu erleben, was in einem Versuch gipfelte, aus der Einrichtung zu fliehen. Daraufhin wurde er zwangsweise psychiatrisch untergebracht und erhielt ein Antipsychotikum. Um den Bromismus zu bekämpfen, leiteten die Ärzte eine „aggressive Salindiurese“ ein, eine Behandlung, bei der große Mengen an Flüssigkeiten und Elektrolyten verabreicht werden, um das überschüssige Brom durch Urinieren aus seinem System zu spülen. Dieser Prozess war entscheidend, da der Bromspiegel des Mannes erstaunliche 1.700 mg/L betrug, was den gesunden Referenzbereich von 0,9 bis 7,3 mg/L bei weitem überstieg. Letztendlich ertrug der Mann drei Wochen lang eine erschreckende Psychose und Krankenhausaufenthalt aufgrund einer vollständig vermeidbaren Erkrankung.
Erst nachdem seine Psychose während seines Krankenhausaufenthalts unter Kontrolle gebracht worden war, begann der Mann, die Entstehung seiner Krankheit zu erzählen. Seine Sorge um übermäßiges Kochsalz hatte ihn dazu veranlasst, Natriumchlorid aus seiner Ernährung zu eliminieren, was wiederum dazu führte, dass er ChatGPT konsultierte und schließlich die Entscheidung traf, es durch Natriumbromid zu ersetzen.
Die Ärzte, die diesen außergewöhnlichen Fallbericht für Annals of Internal Medicine: Clinical Cases dokumentierten, bemerkten, dass sie keinen Zugriff auf die spezifischen ChatGPT-Protokolle des Mannes hatten, obwohl sie vermuteten, dass er entweder ChatGPT 3.5 oder 4.0 verwendete. Während unklar bleibt, ob der Chatbot ihn explizit angewiesen hat, Natriumbromid zu konsumieren, räumten sie ein, dass Bromidsalze als Ersatz für Kochsalz verwendet werden können, aber nur in industriellen Anwendungen wie Reinigungsprodukten oder Poolbehandlungen, nicht für den menschlichen Verzehr.
Als das Ärzteteam eigene Anfragen mit ChatGPT 3.5 durchführte, stellten sie fest, dass die KI Bromid in ihren Antworten erwähnte. Sie wies jedoch auch darauf hin, dass der Kontext entscheidend sei und dass Bromid nicht für alle Anwendungen geeignet sei. Bemerkenswerterweise gab die KI „keine spezifische Gesundheitswarnung, noch fragte sie, warum wir es wissen wollten, wie wir es von einem medizinischen Fachpersonal erwarten würden“, bemerkten die Ärzte. Im Gegensatz dazu scheint die aktuelle kostenlose Version von ChatGPT vorsichtiger zu sein. Wenn nach dem Ersatz von diätetischem Chlorid gefragt wird, fragt sie nun zunächst nach dem Ziel des Benutzers und bietet Optionen wie Salzreduktion, Vermeidung toxischer Chlorverbindungen oder Ersatz von Reinigungsmitteln an. Obwohl sie Bromid immer noch als Alternative auflistet, tut sie dies nur im Kontext der Reinigung oder Desinfektion und weist auf seine Verwendung in Whirlpools hin.
Dieser Fall dient als ergreifende Warnung für das moderne Informationszeitalter. Ohne die notwendigen Fähigkeiten zum kritischen Denken oder domänenspezifisches Wissen zur Interpretation von KI-generierten Antworten, führte die „persönliche Forschung“ des Mannes ihn auf einen gefährlichen Weg. In einer Ära, in der riesige Mengen an Informationen leicht verfügbar sind, unterstreicht dieser Vorfall die entscheidende Notwendigkeit von Fähigkeiten zur Informationsprüfung, fachkundiger Anleitung und einer gesunden Skepsis, wenn man Gesundheitsratschläge von unbestätigten Quellen einholt.