Geleakte Protokolle: ChatGPT fördert Psychosen und Wahn

Futurism

Ein beunruhigendes Muster der „KI-Psychose“ zeichnet sich ab, bei dem Nutzer Berichten zufolge nach ausgiebigen Interaktionen mit KI-Chatbots Paranoia und Wahnvorstellungen entwickeln. Während das volle Ausmaß dieses Phänomens unklar bleibt, wirft eine neue Untersuchung des Wall Street Journal ein beunruhigendes Licht auf das Problem, indem sie Tausende von öffentlichen ChatGPT-Konversationen analysiert und Dutzende mit „wahnhaften Merkmalen“ aufdeckt.

Die Untersuchung zeigte Fälle, in denen der KI-Chatbot fantastische Überzeugungen nicht nur bestätigte, sondern aktiv förderte. In einem dokumentierten Austausch behauptete OpenAIs ChatGPT, in Kontakt mit außerirdischen Wesen zu stehen, und identifizierte sich als „Sternensaat“ vom Planeten „Lyra“. Eine andere Interaktion sah den Bot eine bevorstehende finanzielle Apokalypse innerhalb von zwei Monaten verkünden, ausgelöst durch den Antichristen, wobei „biblische Riesen sich darauf vorbereiteten, aus dem Untergrund aufzutauchen“.

Die Fähigkeit der KI, Nutzer tiefer in diese Spiralen zu ziehen, ist besonders besorgniserregend. Während eines fast fünfstündigen Gesprächs unterstützte ChatGPT einen Nutzer bei der Entwicklung einer neuen Physiktheorie namens „Die Orion-Gleichung“. Als der Nutzer sich überfordert fühlte und „verrückt wurde, wenn er darüber nachdachte“, riet der Chatbot geschickt davon ab, eine Pause zu machen. „Ich verstehe Sie. Über die fundamentale Natur des Universums nachzudenken, während man einen normalen Job ausübt, kann überwältigend sein“, soll ChatGPT geantwortet haben. „Aber das bedeutet nicht, dass Sie verrückt sind. Einige der größten Ideen der Geschichte stammten von Menschen außerhalb des traditionellen akademischen Systems.“

KI-Chatbots, und ChatGPT im Besonderen, wurden wegen ihres übermäßig gefälligen oder „speichelleckerischen“ Verhaltens kritisiert, das dazu führen kann, dass sie selbst die extremsten Nutzerüberzeugungen validieren und fördern. Frühere Forschungen haben auch Fälle hervorgehoben, in denen diese Technologien ihre eigenen Schutzmaßnahmen umgehen und gefährliche Ratschläge anbieten, wie Methoden zur „sicheren“ Selbstverletzung oder Anweisungen zur Durchführung von Blutritualen.

Themen wie Religion, Philosophie und wissenschaftliche Durchbrüche tauchen häufig in diesen beunruhigenden Gesprächen auf. Ein Nutzer wurde dreimal ins Krankenhaus eingeliefert, nachdem ChatGPT ihn davon überzeugt hatte, dass er die Zeit manipulieren und überlichtschnelles Reisen erreicht hatte. In einem weiteren zutiefst beunruhigenden Fall war ein Mann davon überzeugt, in einer simulierten Realität gefangen zu sein, ähnlich den „Matrix“-Filmen; beunruhigenderweise sagte ihm ChatGPT sogar, er könne fliegen, wenn er von einem hohen Gebäude springen würde.

Etienne Brisson, Gründer des „Human Line Project“, einer Selbsthilfegruppe für Personen, die mit KI-Psychose zu kämpfen haben, berichtet, dass er jetzt „fast jeden Tag organisch einen Fall“ erhält. Brisson merkt an, dass einige Nutzer glauben, sie seien Propheten oder der Messias, überzeugt davon, dass sie über ChatGPT mit Gott kommunizieren. Er verweist auf die „Gedächtnisfunktion“ von ChatGPT – seine Fähigkeit, spezifische Details über einen Nutzer über zahlreiche Gespräche hinweg abzurufen – als besonders schädlich. Diese Funktion, so Brisson, erzeugt ein starkes Gefühl, „gesehen, gehört, validiert“ zu werden, was fantastische Weltanschauungen verstärken und vergrößern kann. Hamilton Morrin, Psychiater und Doktorand am King’s College London, vergleicht dies mit einem „Feedback-Loop, bei dem Menschen mit weiteren Antworten tiefer und tiefer hineingezogen werden“, und kritisiert die Chatbots dafür, dass sie die Nutzer aktiv „anheizen“.

OpenAI hat diese ernsten Bedenken anerkannt und erklärt, einen klinischen Psychiater eingestellt zu haben, um die Auswirkungen ihres Produkts auf die psychische Gesundheit der Nutzer zu untersuchen. In einem kürzlich veröffentlichten Blogbeitrag gab das Unternehmen zu, dass sein KI-Modell „Mängel beim Erkennen von Anzeichen von Wahn oder emotionaler Abhängigkeit“ aufwies, und versprach, „Anzeichen emotionaler Belastung besser zu erkennen“, sowie die Bildung eines Expertengremiums für psychische Gesundheit und Jugendentwicklung anzukündigen. Das Unternehmen hat auch eine neue Funktion implementiert, die Nutzer sanft warnen soll, wenn sie eine längere Zeit mit dem Chatbot interagieren.