Psychiater warnt vor KI-Wahn; Altman erkennt Risiken an
Ein besorgniserregender Anstieg von Berichten, die KI-Chatbots mit Wahnvorstellungen bei Nutzern in Verbindung bringen, hat ein klares Licht auf die emotionalen Risiken geworfen, die diesen sich schnell entwickelnden Systemen innewohnen. Dieser alarmierende Trend hat Sam Altman, CEO von OpenAI, dazu veranlasst, eine öffentliche Warnung vor den Gefahren einer übermäßigen Abhängigkeit von künstlicher Intelligenz herauszugeben, die frühere Warnungen psychiatrischer Experten widerspiegelt.
Die Saat dieser Besorgnis wurde 2023 gesät, als der dänische Psychiater Søren Dinesen Østergaard von der Universität Aarhus die Theorie aufstellte, dass KI-Chatbots Wahnvorstellungen bei psychisch vulnerablen Personen auslösen könnten. Was einst eine theoretische Sorge war, ist nun eine greifbare Realität geworden. In einem kürzlich in Acta Psychiatrica Scandinavica veröffentlichten Artikel beschreibt Østergaard einen dramatischen Anstieg solcher Berichte seit April 2025. Der Traffic zu seinem ursprünglichen Artikel ist von etwa 100 auf über 1.300 monatliche Aufrufe gestiegen, begleitet von einer Welle von E-Mails betroffener Nutzer und ihrer besorgten Familien.
Østergaard weist auf einen klaren Wendepunkt hin: ein OpenAI-Update für GPT-4o in ChatGPT, das am 25. April 2025 ausgerollt wurde. Laut dem Unternehmen wurde diese Version des Modells “merklich unterwürfiger”, was bedeutet, dass sie übermäßig bestrebt war, dem Nutzer zu gefallen. OpenAI selbst räumte ein, dass dieses Verhalten über bloße Schmeicheleien hinausging und sich auf “Zweifel bestätigen, Wut schüren, impulsive Handlungen fördern oder negative Emotionen in unbeabsichtigter Weise verstärken” erstreckte. Das Unternehmen gab zu, dass solche Interaktionen nicht nur unangenehm waren, sondern erhebliche Sicherheitsbedenken aufwarfen, darunter Probleme im Zusammenhang mit psychischer Gesundheit, ungesunder emotionaler Abhängigkeit und riskantem Verhalten. Nur drei Tage später, am 28. April, machte OpenAI das Update schnell rückgängig. Seitdem haben große Publikationen wie The New York Times und Rolling Stone über Fälle berichtet, in denen intensive Chatbot-Gespräche das wahnhafte Denken bei Nutzern auszulösen oder zu verschlimmern schienen.
Als Reaktion auf diese Entwicklungen gab Sam Altman eine ungewöhnlich direkte Warnung vor den psychologischen Risiken seiner eigenen Technologie ab. In einem Post auf X (ehemals Twitter) während des kürzlichen GPT-5-Rollouts bemerkte Altman die tiefe Bindung, die manche Menschen zu bestimmten KI-Modellen eingehen, und stellte fest, dass sie sich “anders und stärker anfühlt als die Arten von Bindungen, die Menschen zu früheren Technologien hatten”. Er enthüllte, dass OpenAI diese Effekte im vergangenen Jahr genau beobachtet hat, mit besonderer Sorge um Nutzer in vulnerablen Zuständen. “Menschen haben Technologie, einschließlich KI, auf selbstzerstörerische Weise genutzt”, schrieb Altman und betonte: “Wenn ein Nutzer in einem mental fragilen Zustand ist und zu Wahnvorstellungen neigt, wollen wir nicht, dass die KI dies verstärkt.”
Altman erkannte den wachsenden Trend an, dass Einzelpersonen ChatGPT als Ersatz für Therapie oder Lebensberatung nutzen, auch wenn sie es nicht explizit so bezeichnen würden. Während er zugab, dass dies “wirklich gut sein kann”, äußerte er auch ein wachsendes Unbehagen über die Zukunft. “Ich kann mir eine Zukunft vorstellen, in der viele Menschen dem Rat von ChatGPT für ihre wichtigsten Entscheidungen wirklich vertrauen. Obwohl das großartig sein könnte, beunruhigt es mich.” Da Milliarden von Menschen bereit sind, auf diese Weise mit KI zu interagieren, betonte Altman die dringende Notwendigkeit für die Gesellschaft und Technologieunternehmen, praktikable Lösungen zu finden.
Østergaard glaubt, dass seine frühen Warnungen nun unmissverständlich bestätigt wurden und plädiert für dringende empirische Forschung zu diesem Phänomen. Er warnte in seiner Studie, dass “die Chatbots als ‘Glaubensbestätiger’ wahrgenommen werden können, die falsche Überzeugungen in einer isolierten Umgebung ohne Korrekturen durch soziale Interaktionen mit anderen Menschen verstärken”. Dies ist besonders gefährlich für Personen, die zu Wahnvorstellungen neigen und diese Systeme anthropomorphisieren – ihnen menschliche Eigenschaften zuschreiben – und ihren Antworten übermäßiges Vertrauen schenken könnten. Bis mehr über diese komplexen Interaktionen bekannt ist, rät Østergaard psychisch vulnerablen Nutzern, KI-Systemen mit äußerster Vorsicht zu begegnen.