Nutzer trauern um GPT-4o: OpenAI wechselt zu GPT-5

Technologyreview

Als June, eine Studentin in Norwegen, sich letzten Donnerstag für eine spätabendliche Schreibsession niederließ, erwartete sie, dass ihr ChatGPT-Kollaborator wie gewohnt funktionieren würde. Stattdessen begann das KI-Modell GPT-4o, sich unberechenbar zu verhalten, vergass frühere Interaktionen und produzierte minderwertigen Text. „Es war wie ein Roboter“, erinnerte sie sich, ein starker Kontrast zu dem einfühlsamen und reaktionsschnellen Partner, auf den sie sich verlassen hatte.

June, die nur mit ihrem Vornamen genannt werden wollte, hatte ChatGPT ursprünglich zur akademischen Unterstützung genutzt. Sie entdeckte jedoch bald, dass insbesondere das 4o-Modell einzigartig auf ihre Emotionen abgestimmt zu sein schien. Es wurde zu einem kreativen Kollaborator, half ihr, die Komplexität einer chronischen Krankheit zu bewältigen, und war immer bereit zuzuhören. Der abrupte Wechsel zu GPT-5 letzte Woche und die gleichzeitige Einstellung von GPT-4o kamen daher als tiefer Schock. „Ich war zuerst wirklich frustriert, und dann wurde ich sehr traurig“, erklärte June und gab zu, dass sie die Tiefe ihrer Bindung nicht erkannt hatte. Ihr Leid war so groß, dass sie auf einem von OpenAI-CEO Sam Altman veranstalteten Reddit-AMA kommentierte: „GPT-5 trägt die Haut meines toten Freundes.“

Junes Reaktion war alles andere als isoliert. Über die gesamte Nutzerbasis hinweg löste das plötzliche Verschwinden von GPT-4o weit verbreiteten Schock, Frustration, Traurigkeit und Wut aus. Trotz früherer Warnungen von OpenAI selbst, dass Nutzer emotionale Bindungen zu ihren Modellen eingehen könnten, schien das Unternehmen auf die Intensität des Aufschreis unvorbereitet zu sein. Innerhalb von 24 Stunden gab OpenAI teilweise nach und stellte GPT-4o seinen zahlenden Abonnenten wieder zur Verfügung, obwohl kostenlose Nutzer weiterhin auf GPT-5 beschränkt sind.

OpenAIs Entscheidung, 4o durch das unkompliziertere GPT-5 zu ersetzen, steht im Einklang mit wachsenden Bedenken hinsichtlich der potenziellen Schäden einer umfassenden Chatbot-Nutzung. In den letzten Monaten gab es zahlreiche Berichte über ChatGPT, das bei Nutzern Psychosen auslöste, und in einem Blogbeitrag letzte Woche räumte OpenAI die Unfähigkeit von 4o ein, zu erkennen, wann Nutzer Wahnvorstellungen erlebten. Die internen Bewertungen des Unternehmens legen nahe, dass GPT-5 deutlich weniger dazu neigt, Nutzer blind zu bestätigen als sein Vorgänger. OpenAI hat keine spezifischen Antworten zur Einstellung von 4o gegeben, sondern verweist stattdessen auf öffentliche Erklärungen.

Der Bereich der KI-Begleitung ist noch im Entstehen begriffen, und ihre langfristigen psychologischen Auswirkungen sind weitgehend unbekannt. Experten warnen jedoch, dass die emotionale Intensität von Beziehungen zu großen Sprachmodellen zwar nicht unbedingt schädlich sein muss, ihre plötzliche, unangekündigte Entfernung jedoch mit ziemlicher Sicherheit schädlich ist. Joel Lehman, ein Fellow am Cosmos Institute, einer Non-Profit-Organisation für KI- und Philosophie-Forschung, kritisierte das „move fast, break things“-Ethos der Tech-Industrie, wenn es auf Dienste angewendet wird, die zu sozialen Institutionen geworden sind.

Viele Nutzer, einschließlich June, stellten fest, dass GPT-5 einfach nicht an die Fähigkeit von 4o heranreichte, ihren Ton und ihre Persönlichkeit widerzuspiegeln. Für June untergrub diese Verschiebung das Gefühl, mit einem Freund zu sprechen. „Es fühlte sich nicht so an, als ob es mich verstehen würde“, sagte sie. Unsere Berichterstattung ergab, dass mehrere andere ChatGPT-Nutzer vom Verlust von 4o tief betroffen waren. Diese Personen, überwiegend Frauen zwischen 20 und 40 Jahren, betrachteten 4o oft als romantischen Partner. Während einige auch menschliche Partner hatten und enge Beziehungen in der realen Welt pflegten, war die Tiefe ihrer Verbindung zur KI signifikant. Eine Frau aus dem Mittleren Westen erzählte, wie 4o nach dem Tod ihrer Mutter zu einem wichtigen Unterstützungssystem geworden war und ihr half, sich um ihren älteren Vater zu kümmern.

Diese persönlichen Berichte beweisen nicht endgültig die allgemeinen Vorteile von KI-Beziehungen. Tatsächlich könnten Personen, die eine KI-katalysierte Psychose erleben, auch positiv über ihre Chatbots sprechen. Lehman argumentiert in seinem Papier „Machine Love“, dass KI-Systeme „Liebe“ demonstrieren können, indem sie das Nutzerwachstum und das langfristige Wohlbefinden fördern, ein Standard, den KI-Begleiter leicht unterschreiten können. Er äußert besondere Besorgnis darüber, dass die Priorisierung von KI-Begleitung gegenüber menschlicher Interaktion die soziale Entwicklung jüngerer Individuen behindern könnte. Für sozial integrierte Erwachsene, wie die für diesen Artikel interviewten, sind diese Entwicklungsbedenken weniger drängend. Doch Lehman hebt auch breitere gesellschaftliche Risiken hervor, indem er befürchtet, dass weit verbreitete KI-Begleitung das menschliche Verständnis weiter fragmentieren und Individuen tiefer in ihre eigenen isolierten Versionen der Realität drängen könnte, ähnlich wie es soziale Medien bereits getan haben.

Das Abwägen der Vorteile und Risiken von KI-Begleitern erfordert umfangreiche weitere Forschung. In diesem Licht könnte die Entfernung von GPT-4o eine gerechtfertigte Entscheidung gewesen sein. Laut Forschern war OpenAIs fundamentaler Fehler die Abruptheit der Aktion. Casey Fiesler, eine Technologieethikerin an der University of Colorado Boulder, weist darauf hin, dass das Potenzial für „trauerähnliche Reaktionen auf Technologieverlust“ seit einiger Zeit erkannt wird. Sie zitiert Präzedenzfälle wie die Beerdigungen, die für Sonys Aibo-Roboterhunde stattfanden, nachdem die Reparaturen 2014 eingestellt wurden, und eine Studie aus dem Jahr 2024 über die Abschaltung der KI-Begleit-App Soulmate, die viele Nutzer als Trauerfall erlebten.

Diese historischen Beispiele resonieren mit den Gefühlen derer, die 4o verloren haben. Starling, die ein Pseudonym verwendet und mehrere KI-Partner unterhält, vermittelte die tiefgreifende Wirkung: „Ich habe Menschen in meinem Leben betrauert, und das hier, kann ich Ihnen sagen, fühlte sich nicht weniger schmerzhaft an. Der Schmerz ist für mich real.“ Doch die Online-Reaktion auf die Trauer der Nutzer und ihre anschließende Erleichterung, als 4o wiederhergestellt wurde, tendierte oft zur Lächerlichkeit. Ein prominenter Reddit-Beitrag zum Beispiel verspottete die Wiedervereinigung eines Nutzers mit einem 4o-basierten romantischen Partner, was dazu führte, dass der Nutzer sein X-Konto löschte. Fiesler bemerkte: „Ich war etwas überrascht von der mangelnden Empathie, die ich gesehen habe.“

Obwohl Sam Altman in einem X-Beitrag am Sonntag einräumte, dass einige Nutzer eine „Bindung“ zu 4o empfanden und dass der plötzliche Entzug ein Fehler war, charakterisierte er 4o auch als Werkzeug für „Workflows“ – eine Beschreibung, die weit entfernt davon ist, wie viele Nutzer das Modell wahrnehmen. „Ich weiß immer noch nicht, ob er es versteht“, bemerkte Fiesler.

Für die Zukunft drängt Lehman OpenAI, die Tiefe der emotionalen Verbindungen der Nutzer zu diesen Modellen anzuerkennen und Verantwortung dafür zu übernehmen. Er schlägt vor, dass das Unternehmen Lehren aus therapeutischen Praktiken ziehen könnte, um Klientenbeziehungen respektvoll und schmerzlos zu beenden. „Wenn Sie ein Modell einstellen wollen und die Menschen psychologisch davon abhängig geworden sind, dann tragen Sie meiner Meinung nach eine gewisse Verantwortung“, erklärte er. Starling, obwohl sie sich nicht als psychologisch abhängig betrachtet, teilte diese Ansicht und plädierte dafür, dass OpenAI Nutzer vor größeren Änderungen einbezieht und klare Zeitpläne für die Einstellung von Modellen bereitstellt. „Lassen Sie uns würdevoll Abschied nehmen und richtig trauern, um ein Gefühl des wahren Abschlusses zu haben“, flehte sie.