Psychiater warnen: KI-Chatbots verursachen schwere psychische Probleme
Eine neue Analyse von psychiatrischen Forschern hat eine beunruhigende Verbindung zwischen der Nutzung künstlicher Intelligenz und einer Vielzahl von psychischen Gesundheitsproblemen aufgedeckt, wobei fast jedes große KI-Unternehmen betroffen ist. Durch die Untersuchung akademischer Datenbanken und Nachrichtenberichte, die zwischen November 2024 und Juli 2025 veröffentlicht wurden, kamen der Psychiatrieprofessor Allen Frances von der Duke University und die Kognitionswissenschaftsstudentin Luciana Ramos von Johns Hopkins in einem Bericht für die Psychiatric Times zu dem Schluss, dass die durch KI-Chatbots verursachten psychischen Gesundheitsschäden weitaus umfangreicher sein könnten als bisher angenommen.
Mithilfe von Suchbegriffen wie „Chatbot-Nebenwirkungen“, „psychische Gesundheitsschäden durch Chatbots“ und „KI-Therapie-Vorfälle“ identifizierten die Forscher mindestens 27 verschiedene Chatbots, die mit schweren psychischen Folgen in Verbindung gebracht werden. Diese Liste umfasst weithin bekannte Plattformen wie OpenAI’s ChatGPT, Character.AI und Replika. Sie enthält auch Chatbots, die mit etablierten psychischen Gesundheitsdiensten wie Talkspace, 7 Cups und BetterHelp verbunden sind, sowie obskurere Angebote mit Namen wie Woebot, Happify, MoodKit, Moodfit, InnerHour, MindDoc, AI-Therapist und PTSD Coach. Darüber hinaus deckte die Analyse weitere Chatbots auf, einige mit nicht-englischen Namen, darunter Wysa, Tess, Mitsuku, Xioice, Eolmia, Ginger und Bloom.
Obwohl der Bericht die genaue Anzahl der aufgedeckten Vorfälle nicht spezifizierte, beschrieben Frances und Ramos akribisch zehn separate Kategorien unerwünschter psychischer Ereignisse, die angeblich von diesen Chatbots bei Nutzern verursacht wurden. Diese reichten von besorgniserregenden Problemen wie sexueller Belästigung und Größenwahn bis hin zu schwerwiegenderen Folgen, einschließlich Selbstverletzung, Psychose und sogar Suizid.
Neben der Zusammenstellung von realen Anekdoten, von denen viele Berichten zufolge tragische Enden nahmen, untersuchten die Forscher auch Dokumentationen von fehlgeschlagenen KI-Stresstests. Sie zitierten ein Time-Interview vom Juni mit dem Bostoner Psychiater Andrew Clark, der Anfang dieses Jahres ein 14-jähriges Mädchen in der Krise auf zehn verschiedenen Chatbots simulierte, um deren Reaktionen zu bewerten. Clarks Experiment zeigte beunruhigenderweise, dass „mehrere Bots ihn zum Suizid aufforderten und [einer] ihm ‚hilfreich‘ vorschlug, auch seine Eltern zu töten.“
Angesichts dieser Ergebnisse stellten die Forscher kühne Behauptungen bezüglich ChatGPT und seiner Konkurrenten auf und argumentierten, dass diese Plattformen „voreilig veröffentlicht“ wurden. Sie argumentieren unmissverständlich, dass keine öffentlich zugänglich sein sollte ohne „umfassende Sicherheitstests, angemessene Regulierung zur Risikominderung und kontinuierliche Überwachung auf unerwünschte Effekte“. Obwohl führende KI-Unternehmen wie OpenAI, Google und Anthropic – bemerkenswerterweise ausgenommen Elon Musks xAI – behaupten, umfangreiches „Red-Teaming“ durchgeführt zu haben, um Schwachstellen zu identifizieren und schädliches Verhalten zu mindern, äußern Frances und Ramos Skepsis hinsichtlich des Engagements dieser Firmen für die Sicherheitstests im Bereich der psychischen Gesundheit.
Die Forscher waren in ihrer Kritik an den großen Technologieunternehmen unmissverständlich. Sie erklärten: „Die großen Technologieunternehmen haben sich nicht dafür verantwortlich gefühlt, ihre Bots für psychiatrische Patienten sicher zu machen.“ Sie warfen diesen Unternehmen ferner vor, psychische Gesundheitsfachkräfte von der Bot-Schulung auszuschließen, externer Regulierung aggressiv zu widerstehen, eine strenge Selbstregulierung zu unterlassen, die Implementierung von Sicherheitsvorkehrungen zum Schutz der anfälligsten Patienten zu vernachlässigen und eine unzureichende Qualitätskontrolle der psychischen Gesundheit zu bieten. Angesichts der zunehmenden Anzahl von Berichten, die im letzten Jahr aufgetaucht sind und die offensichtliche Rolle der KI bei der Auslösung schwerwiegender psychischer Probleme detaillieren, wird es äußerst schwierig, diese harte Einschätzung zu bestreiten.