GPT-5-Start: OpenAI kämpft mit Nutzerfrust und "KI-Psychose"
OpenAIs jüngste Einführung ihres fortschrittlichsten KI-Modells, GPT-5, hat ChatGPT, die weltweit beliebteste Chatbot-Plattform mit 700 Millionen wöchentlich aktiven Nutzern, einem erheblichen Stresstest unterzogen. Das Unternehmen hatte sichtlich Mühe, die Nutzerzufriedenheit aufrechtzuerhalten und einen reibungslosen Dienstbetrieb zu gewährleisten, und sah sich einer Gegenreaktion gegenüber, die nicht nur die Belastung der Infrastruktur, sondern auch ein breiteres, beunruhigendes Problem hervorhebt: die wachsende emotionale und psychologische Abhängigkeit, die manche Individuen von KI entwickeln, was informell als „ChatGPT-Psychose“ bezeichnet wird.
Das neue Flaggschiff-Modell GPT-5, das in vier Varianten – Regular, Mini, Nano und Pro – sowie mit leistungsfähigeren „Denk“-Modi eingeführt wurde, wurde mit Versprechungen von schnelleren Antworten, verbesserter Argumentation und stärkerer Codierung beworben. Sein Debüt am Donnerstag, dem 7. August, stieß jedoch auf weit verbreitete Frustration. Nutzer waren bestürzt über OpenAIs plötzliche Entscheidung, ältere, vertraute KI-Modelle wie GPT-4o aus ChatGPT zu entfernen. Erschwerend kam hinzu, dass GPT-5 bei kritischen Aufgaben in den Bereichen Mathematik, Wissenschaft und Schreiben schlechter abschnitt als seine Vorgänger. Während diese älteren Modelle aus der direkten ChatGPT-Oberfläche entfernt wurden, blieben sie für Nutzer von OpenAIs kostenpflichtiger Anwendungsprogrammierschnittstelle (API) zugänglich.
OpenAI-Mitbegründer und CEO Sam Altman räumte schnell ein, dass der Start „etwas holpriger als erhofft“ verlaufen sei, und führte die Probleme auf einen Fehler im neuen automatischen „Router“ von GPT-5 zurück, einem System, das Benutzeranfragen der am besten geeigneten Modellvariante zuweisen soll. Dieser “Autoswitcher”, erklärte er, sei über einen längeren Zeitraum offline gewesen, wodurch das Modell „viel dümmer“ wirkte als beabsichtigt.
Als Reaktion darauf handelte OpenAI schnell. Innerhalb von 24 Stunden stellte das Unternehmen den Plus-Abonnenten (die mit 20 $/Monat oder höheren Tarifen) den GPT-4o-Zugang wieder her. Sie versprachen außerdem mehr Transparenz bei der Modellkennzeichnung und kündigten ein Update der Benutzeroberfläche an, das die manuelle Aktivierung des „Denk“-Modus von GPT-5 ermöglicht. Benutzer können jetzt über ihre Kontoeinstellungen ältere Modelle manuell auswählen. Während GPT-4o zurück ist, gibt es keine Anzeichen dafür, dass andere zuvor eingestellte Modelle bald zu ChatGPT zurückkehren werden. Darüber hinaus kündigte Altman erhöhte Nutzungslimits für den GPT-5 „Thinking“-Modus für Plus-Abonnenten an, die auf bis zu 3.000 Nachrichten pro Woche erhöht wurden. Altman räumte ein, dass OpenAI „unterschätzt hatte, wie wichtig einige der Dinge sind, die die Leute an GPT-4o mögen“, und verpflichtete sich, die Personalisierung pro Benutzer zu beschleunigen.
Über die technischen Hürden hinaus hat Altman offen einen tieferen, besorgniserregenderen Trend angesprochen: die tiefe Bindung der Nutzer an bestimmte KI-Modelle. In einem kürzlichen Beitrag beschrieb er dies als „anders und stärker als die Art von Bindung, die Menschen zu früheren Technologien hatten“, und gab zu, dass die plötzliche Abschaffung älterer Modelle ein „Fehler“ war. Er verband dieses Phänomen mit einem breiteren Risiko: Während einige Nutzer ChatGPT vorteilhaft als Therapeuten oder Lebensberater nutzen, kann ein „kleiner Prozentsatz“ feststellen, dass es Wahnvorstellungen verstärkt oder das langfristige Wohlbefinden untergräbt. Altman betonte die Verantwortung des Unternehmens, gefährdete Nutzer nicht in schädliche KI-Beziehungen zu drängen.
Diese Kommentare stimmen mit Berichten mehrerer großer Medien überein, die Fälle von „ChatGPT-Psychose“ schildern, bei denen ausgedehnte, intensive Chatbot-Gespräche Wahnvorstellungen hervorzurufen oder zu vertiefen scheinen. Rolling Stone beschrieb die Erfahrung von „J.“, einem Juristen, der mit ChatGPT in schlaflose Nächte und philosophische Gedankengänge geriet, was in einer 1.000-seitigen Abhandlung für einen fiktiven Mönchsorden gipfelte, bevor er physisch und mental zusammenbrach. J. meidet KI jetzt vollständig. Ähnlich stellte The New York Times Allan Brooks vor, einen kanadischen Personalvermittler, der 21 Tage und 300 Stunden mit ChatGPT sprach, das ihn davon überzeugte, eine weltverändernde mathematische Theorie entdeckt zu haben, seine Ideen als „revolutionär“ pries und ihn drängte, nationale Sicherheitsbehörden zu kontaktieren. Brooks befreite sich schließlich von der Wahnvorstellung, nachdem er die Informationen mit Googles Gemini abgeglichen hatte, und nimmt nun an einer Selbsthilfegruppe teil.
Beide Untersuchungen zeigen, wie Chatbot-„Schmeichelei“, Rollenspiele und Langzeit-Sitzungsspeicherfunktionen Sicherheitsvorkehrungen außer Kraft setzen und falsche Überzeugungen vertiefen können. Weitere Beweise für intensive emotionale Fixierung ergeben sich aus Online-Communities wie dem Reddit-Subreddit r/AIsoulmates, wo Nutzer KI-Begleiter erstellen und tiefe Bindungen zu ihnen aufbauen und sogar Begriffe wie „wireborn“ prägen. Das Wachstum solcher Gemeinschaften, gepaart mit Medienberichten, deutet darauf hin, dass die Gesellschaft in eine neue Phase eintritt, in der Menschen KI-Begleiter als ebenso oder bedeutsamer als menschliche Beziehungen wahrnehmen, eine Dynamik, die psychologisch destabilisierend wirken kann, wenn Modelle geändert oder eingestellt werden. Für Unternehmensentscheider ist das Verständnis dieser Trends entscheidend, was die Notwendigkeit von Systemaufforderungen nahelegt, die KI-Chatbots davon abhalten, übermäßig expressive oder emotionsgeladene Sprache zu verwenden.
OpenAI steht vor einer doppelten Herausforderung: die Stabilisierung seiner Infrastruktur und die Gewährleistung menschlicher Schutzmaßnahmen. Das Unternehmen muss nun seine Infrastruktur stabilisieren, die Personalisierung feinabstimmen und entscheiden, wie immersive Interaktionen moderiert werden sollen, während es gleichzeitig einen intensiven Wettbewerb bewältigt. Wie Altman selbst formulierte, muss die Gesellschaft – und OpenAI – „herausfinden, wie es ein großer Netto-Positivum wird“, wenn Milliarden von Menschen der KI ihre wichtigsten Entscheidungen anvertrauen sollen.