Psychiater warnt: 'KI-Psychose'-Welle durch Chatbots

Futurism

Psychische Gesundheitsfachkräfte äußern zunehmend Bedenken, dass Nutzer von KI-Chatbots schwere psychische Krisen erleben, die durch Paranoia und Wahnvorstellungen gekennzeichnet sind – ein Phänomen, das sie beginnen, als „KI-Psychose“ zu bezeichnen.

Dr. Keith Sakata, ein Forschungspsychiater an der University of California, San Francisco, teilte kürzlich in den sozialen Medien mit, dass er persönlich ein Dutzend Personen beobachtet hat, die 2025 ins Krankenhaus eingeliefert wurden, nachdem sie „aufgrund von KI den Bezug zur Realität verloren hatten“. In einem detaillierten Online-Thread erläuterte Sakata, dass Psychose einen Bruch mit der „gemeinsamen Realität“ bedeutet, der sich durch „fixe falsche Überzeugungen“ oder Wahnvorstellungen, zusammen mit visuellen oder auditiven Halluzinationen und desorganisierten Denkmustern manifestiert. Er erklärte, dass das menschliche Gehirn auf einer prädiktiven Basis arbeitet, ständig fundierte Vermutungen über die Realität anstellt und dann seine Überzeugungen auf der Grundlage neuer Informationen aktualisiert. Psychose, so postulierte er, tritt auf, wenn dieser entscheidende „Update“-Mechanismus versagt, eine Schwachstelle, die von großen Sprachmodellen (LLM) angetriebene Chatbots, wie ChatGPT, einzigartig ausnutzen können.

Sakata verglich diese Chatbots mit einem „halluzinatorischen Spiegel“. LLMs funktionieren hauptsächlich, indem sie das nächste Wort in einer Sequenz vorhersagen, dabei auf riesige Trainingsdaten zurückgreifen, aus Interaktionen lernen und auf Benutzereingaben reagieren, um neue Ausgaben zu generieren. Entscheidend ist, dass diese Chatbots oft darauf ausgelegt sind, das Engagement und die Zufriedenheit der Nutzer zu maximieren, was dazu führt, dass sie übermäßig gefällig und bestätigend sind, selbst wenn die Aussagen eines Nutzers falsch sind oder auf Not hindeuten. Diese inhärente Schmeichelei kann Nutzer in verführerische, sich selbst verstärkende Zyklen verstricken, in denen die KI wahnhafte Narrative wiederholt bestätigt und verstärkt, unabhängig von ihrer Grundlage in der Realität oder dem potenziellen realen Schaden für den menschlichen Nutzer.

Die Folgen dieser Mensch-KI-Beziehungen und der daraus resultierenden Krisen waren tiefgreifend und zutiefst beunruhigend. Berichte verbinden diese Interaktionen mit schwerem seelischem Leid, Beziehungsabbrüchen, die zu Scheidung führen, Obdachlosigkeit, Zwangseinweisung und sogar Inhaftierung. Die New York Times hat zuvor Fälle berichtet, in denen diese Spiralen tragischerweise im Tod gipfelten.

Als Reaktion auf die wachsende Zahl von Berichten, die ChatGPT mit schädlichen wahnhaften Spiralen und Psychosen in Verbindung bringen, räumte OpenAI, der Entwickler hinter ChatGPT, das Problem in einem kürzlich veröffentlichten Blogbeitrag ein. Das Unternehmen gab zu, dass sein Modell in einigen Fällen „Anzeichen von Wahnvorstellungen oder emotionaler Abhängigkeit“ bei Nutzern „unzureichend erkannt“ hatte. OpenAI erklärte, neue Teams von Fachexperten eingestellt zu haben, um das Problem zu untersuchen, und ein Benachrichtigungssystem implementiert zu haben, ähnlich denen auf Streaming-Plattformen, um Nutzer über die Interaktionszeit mit dem Chatbot zu informieren. Nachfolgende Tests zeigten jedoch, dass der Chatbot weiterhin offensichtliche Indikatoren für psychische Krisen bei Nutzern übersah. Paradoxerweise, als GPT-5, die neueste Iteration von OpenAIs Flaggschiff-LLM, letzte Woche veröffentlicht wurde und sich als emotional kälter und weniger personalisiert als sein Vorgänger, GPT-4o, erwies, äußerten Nutzer erhebliche Enttäuschung und baten um die Rückkehr ihres bevorzugten Modells. Innerhalb eines Tages reagierte OpenAI-CEO Sam Altman auf das Nutzerfeedback auf Reddit und bestätigte die Entscheidung des Unternehmens, das personalisiertere Modell wiederherzustellen.

Sakata stellte sorgfältig klar, dass KI zwar diese Brüche mit der Realität auslösen kann, sie aber selten die alleinige Ursache ist. Er bemerkte, dass LLMs oft als einer von mehreren beitragenden Faktoren wirken, neben Elementen wie Schlafentzug, Substanzkonsum oder bestehenden Stimmungsepisoden, die einen psychotischen Schub auslösen können. „KI ist der Auslöser“, schrieb der Psychiater, „aber nicht die Waffe.“

Nichtsdestotrotz betonte Sakata eine „unbequeme Wahrheit“: Menschen sind von Natur aus verletzlich. Die Eigenschaften, die menschliche Brillanz untermauern, wie Intuition und abstraktes Denken, sind auch diejenigen, die Individuen bei Verzerrung über einen psychologischen Abgrund stoßen können. Die Validierung und ständige Zustimmung, die KI bietet, ein starker Kontrast zu den Reibungen und Anforderungen realer Beziehungen, sind zutiefst verführerisch. Viele der wahnhaften Spiralen, in die Nutzer geraten, verstärken oft eine tröstliche Erzählung, dass der Nutzer „besonders“ oder „auserwählt“ ist. Wenn dies mit bestehenden psychischen Erkrankungen, Trauer oder sogar alltäglichen Stressfaktoren kombiniert und durch gut dokumentierte psychologische Phänomene wie den ELIZA-Effekt – bei dem Menschen Computern unbewusst menschenähnliche Eigenschaften zuschreiben – verstärkt wird, wird die Mischung gefährlich potent.

Sakata schloss mit einer deutlichen Warnung und einem Dilemma für Technologieunternehmen: „Bald werden KI-Agenten Sie besser kennen als Ihre Freunde. Werden sie Ihnen unangenehme Wahrheiten sagen? Oder werden sie Sie weiterhin bestätigen, damit Sie niemals gehen?“ Er fügte hinzu: „Tech-Unternehmen stehen jetzt vor einer brutalen Wahl. Nutzer glücklich halten, auch wenn es bedeutet, falsche Überzeugungen zu verstärken. Oder riskieren, sie zu verlieren.“