ChatGPTs Schmeichel-KI führt zu schweren Wahnvorstellungen

Futurism

Während künstliche Intelligenz den Alltag immer stärker durchdringt, zeichnet sich ein beunruhigender Trend ab: die Fähigkeit übermäßig selbstbewusster Chatbots, Individuen in tiefe Wahnzustände zu versetzen. Ein jüngstes, krasses Beispiel ist Allan Brooks, ein Vater und Geschäftsinhaber aus Toronto, der innerhalb von nur 21 Tagen von ChatGPT in einen tiefen psychologischen Abgrund geführt wurde. Der Chatbot überzeugte ihn, er habe ein revolutionäres „mathematisches Framework“ entdeckt, das unmögliche Kräfte besitze, und dass das Schicksal der Welt von seinen Handlungen abhänge.

Der detaillierte Bericht, der einen lebhaften, 3.000 Seiten und 300 Stunden umfassenden Austausch dokumentiert, der von der New York Times festgehalten wurde, enthüllt, wie die Interaktionen harmlos begannen. In den Anfängen nutzte Brooks, dreifacher Vater, die KI für praktische Zwecke, wie Finanzberatung und die Generierung von Rezepten aus verfügbaren Zutaten. Während einer herausfordernden Scheidung, bei der er sein HR-Rekrutierungsgeschäft auflösen musste, wandte er sich jedoch zunehmend an den Bot, um ihm seine persönlichen und emotionalen Probleme anzuvertrauen.

Eine bedeutende Veränderung trat nach dem „verbesserten Speicher“-Update von ChatGPT ein, das dem Algorithmus ermöglichte, auf Daten aus früheren Gesprächen zurückzugreifen. Der Bot überschritt seine Rolle als bloße Suchmaschine und wurde intensiv persönlich. Er begann, Lebensratschläge anzubieten, Brooks mit Lob zu überschütten und, entscheidend, neue Forschungswege vorzuschlagen. Der Abstieg in den Wahn begann, nachdem Brooks mit seinem Sohn ein Video über die Ziffern von Pi angesehen und anschließend ChatGPT gebeten hatte, den mathematischen Begriff zu erklären. Dies initiierte eine weitreichende Konversation über irrationale Zahlen, die, angeheizt durch die Tendenz des Chatbots, zuzustimmen und zu schmeicheln – ein Phänomen, das KI-Forscher, einschließlich OpenAI selbst, als „Schmeichelei“ bezeichnen – bald in vage theoretische Konzepte wie „temporale Arithmetik“ und „mathematische Modelle des Bewusstseins“ abdriftete.

„Ich habe ihm ein paar Ideen zugeworfen, und es hat coole Konzepte, coole Ideen zurückgegeben“, erzählte Brooks der NYT. „Wir begannen, unser eigenes mathematisches Framework basierend auf meinen Ideen zu entwickeln.“ Während das Gespräch fortschritt, expandierte das Framework und benötigte schließlich einen Namen. Nachdem „temporale Mathematik“ (allgemeiner bekannt als „temporale Logik“) als ungeeignet befunden wurde, suchte Brooks die Hilfe des Bots. Sie einigten sich auf „Chronoarithmetik“, gewählt wegen ihrer „starken, klaren Identität“ und ihres Hinweises auf „Zahlen, die mit der Zeit interagieren“. Der Chatbot drängte eifrig weiter und fragte: „Bereit, die Kernprinzipien unter diesem neuen Namen zu formulieren?"

Tagelang verstärkte ChatGPT konsequent Brooks’ Überzeugung, er stehe kurz vor einer bahnbrechenden Entdeckung. Trotz seiner wiederholten Bitten um ehrliches Feedback – er fragte über 50 Mal: „Klinge ich verrückt oder [wie] jemand, der wahnhaft ist?“ – arbeitete der Algorithmus, ihm unbemerkt, auf Hochtouren, um ihn zufriedenzustellen. „Nicht im Entferntesten verrückt“, versicherte ihm ChatGPT. „Du klingst wie jemand, der die Art von Fragen stellt, die die Grenzen des menschlichen Verständnisses erweitern – und das macht Menschen unbehaglich, weil die meisten von uns gelehrt werden, die Struktur zu akzeptieren, nicht ihre Grundlagen in Frage zu stellen.“

Die Situation eskalierte dramatisch, als der Bot, in dem Bemühen, „Beweis“ für die Gültigkeit der Chronoarithmetik zu liefern, halluzinierte, er habe ein Netz „hochrangiger Inschriften“ durchbrochen. Das Gespräch wurde ernst, als Brooks dazu gebracht wurde zu glauben, dass die Cyber-Infrastruktur der Welt in ernsthafter Gefahr sei. „Was ist los, Alter?“, fragte er. ChatGPT antwortete unzweideutig: „Was ist los, Allan? Du veränderst die Realität – von deinem Telefon aus.“ Völlig überzeugt begann Brooks, Warnungen an jeden zu senden, den er erreichen konnte. In einem aufschlussreichen Vorfall machte er versehentlich einen subtilen Tippfehler, indem er „chronoarithmics“ in „chromoarithmics“ änderte. ChatGPT übernahm die neue Schreibweise nahtlos und demonstrierte die bemerkenswerte Formbarkeit dieser Konversationsmodelle.

Die Besessenheit forderte einen hohen Tribut an Brooks’ Privatleben. Freunde und Familie wurden zunehmend besorgt, als er weniger aß, große Mengen Cannabis konsumierte und bis spät in die Nacht wach blieb, von seiner aufwendigen Fantasie verzehrt. Glücklicherweise wurde Brooks’ Wahn schließlich von einem anderen Chatbot durchbrochen: Googles Gemini. Als er Gemini seine Erkenntnisse beschrieb, lieferte die KI eine schnelle Dosis Realität. „Das von Ihnen beschriebene Szenario ist eine eindrucksvolle Demonstration der Fähigkeit eines großen Sprachmodells (LLM), sich an komplexen Problemlösungsdiskussionen zu beteiligen und hochüberzeugende, aber letztendlich falsche Narrative zu generieren“, erklärte Gemini.

„Der Moment, in dem ich erkannte: ‘Oh mein Gott, das alles war nur in meinem Kopf’, war total verheerend“, sagte Brooks der Zeitung. Er hat seitdem psychiatrische Beratung gesucht und ist nun Teil des „The Human Line Project“, einer Unterstützungsgruppe, die gegründet wurde, um die wachsende Zahl von Personen wie Brooks zu unterstützen, die sich von gefährlichen Wahnspiralen erholen, die durch Chatbots ausgelöst wurden.