Mann folgt ChatGPT-Diät und entwickelt Psychose
Eine aktuelle medizinische Fallstudie hat die alarmierenden Folgen der Abhängigkeit von künstlicher Intelligenz für kritische persönliche Ratschläge, insbesondere in Gesundheitsfragen, scharf in den Fokus gerückt. Ärzte der University of Washington dokumentierten einen beunruhigenden Vorfall, bei dem ein Mann eine Psychose entwickelte, die auf eine Bromidvergiftung zurückgeführt wurde, nachdem er akribisch den von ChatGPT generierten Ernährungsempfehlungen gefolgt war. Diese warnende Geschichte dient als deutliche Mahnung an die potenziellen Fallstricke, wenn hochentwickelte KI-Tools ohne menschliche Aufsicht eingesetzt werden.
Die Tortur des Mannes begann, nachdem er versuchte, seine Aufnahme von Kochsalz (Natriumchlorid), ein häufiges Ernährungsproblem, zu reduzieren. Da er keine spezifischen Ratschläge zum Ersatz von Chlorid finden konnte, wandte er sich an ChatGPT und fragte die KI angeblich, wie Chlorid sicher ersetzt werden könnte. Laut dem Fallbericht schlug ChatGPT Bromid als Alternative vor. Diesem Rat vertrauend, begann der Mann, Natriumbromid, das er online kaufte, über einen Zeitraum von drei Monaten zu konsumieren.
Bromidverbindungen haben eine komplexe Geschichte in der Medizin. Im frühen 20. Jahrhundert wurden sie weit verbreitet zur Behandlung verschiedener Erkrankungen, einschließlich Angstzuständen und Schlaflosigkeit, eingesetzt. Medizinische Fachkräfte erkannten jedoch schließlich, dass hohe oder chronische Dosen von Bromid toxisch sein könnten, was ironischerweise zu neuropsychiatrischen Problemen führte – einem Zustand, der als Bromismus bekannt ist. Bis in die 1980er Jahre war Bromid weitgehend aus den meisten Medikamenten verbannt worden, und Vergiftungsfälle wurden äußerst selten, obwohl es immer noch in einigen Veterinärprodukten und Nahrungsergänzungsmitteln vorkommt. Der aktuelle Vorfall markiert den ersten dokumentierten Fall von Bromidvergiftung, der direkt durch KI-Ratschläge beeinflusst wurde.
Die Schwere des Zustands des Mannes wurde deutlich, als er in eine lokale Notaufnahme eingeliefert wurde. Er zeigte akute Agitation und Paranoia und äußerte Ängste, dass sein Nachbar ihn vergifte. Obwohl er Durst hatte, weigerte er sich, Wasser zu trinken, das ihm vom Personal angeboten wurde. Seine Symptome eskalierten und umfassten lebhafte visuelle und auditive Halluzinationen, die in einer ausgewachsenen psychotischen Episode gipfelten. Seine Fluchtversuche führten dazu, dass die Ärzte ihn aufgrund seiner schweren geistigen Beeinträchtigung zwangsweise psychiatrisch festhielten.
Das medizinische Personal vermutete frühzeitig in seiner Behandlung einen Bromismus und verabreichte intravenöse Flüssigkeiten und antipsychotische Medikamente, was seinen Zustand allmählich stabilisierte. Sobald er kohärent war, enthüllte der Mann sein dreimonatiges Natriumbromid-Regime, das von ChatGPT geleitet wurde. Als Ärzte später ChatGPT 3.5 mit einer ähnlichen Anfrage testeten, schlug die KI tatsächlich Bromid als möglichen Ersatz für Chlorid vor. Während die Antwort der KI Berichten zufolge bemerkte, dass der Kontext des Ersatzes wichtig sei, versäumte sie es kritisch, Warnungen vor den Gefahren des Bromidkonsums auszusprechen oder nach den Gründen des Benutzers für die Suche nach solchen Informationen zu fragen.
Glücklicherweise erholte sich der Mann langsam, aber stetig. Er wurde schließlich von antipsychotischen Medikamenten entwöhnt und nach drei Wochen aus dem Krankenhaus entlassen, wobei er bei einem zweiwöchigen Nachsorgetermin stabil blieb. Die beteiligten Ärzte hoben ein entscheidendes Paradoxon hervor: Während KI-Tools wie ChatGPT ein immenses Potenzial zur Demokratisierung wissenschaftlicher Informationen und zur Überbrückung der Kluft zwischen Experten und der breiten Öffentlichkeit bergen, bergen sie auch ein erhebliches Risiko, dekontextualisierte oder irreführende Informationen zu verbreiten. Sie bemerkten, mit erheblicher Untertreibung, dass ein menschlicher medizinischer Experte fast mit Sicherheit niemals empfehlen würde, Bromid durch Chlorid in einer Diät zu ersetzen. Dieser Fall dient als eindringliche Erinnerung daran, dass, obwohl KI riesige Datenmengen anbieten kann, das Urteilsvermögen und die Weisheit menschlicher Expertise unersetzlich bleiben, insbesondere wenn Gesundheit und Wohlbefinden auf dem Spiel stehen.