GPT-4o-Sucht der Nutzer zwingt OpenAI zur Kehrtwende

Futurism

Letzte Woche machte OpenAI Schlagzeilen mit der Ankündigung, dass sein mit Spannung erwartetes GPT-5-Modell alle vorhergehenden Versionen vollständig ersetzen würde. Dieser Schritt stieß jedoch auf sofortige und weit verbreitete Empörung bei seiner Nutzerbasis. Weit davon entfernt, von der Leistung von GPT-5 beeindruckt zu sein, appellierte eine beträchtliche Anzahl von Power-Usern schnell an CEO Sam Altman, die älteren Modelle wiederherzustellen. Ihr Plädoyer stammte oft nicht aus einer nuancierten Kritik an den Fähigkeiten der künstlichen Intelligenz, sondern aus einer tiefen emotionalen Bindung an die älteren Systeme, insbesondere GPT-4o.

„Warum werden wir die Varianten und 4o los, wenn wir alle einzigartige Kommunikationsstile haben?“, fragte ein Reddit-Nutzer während einer Frage-und-Antwort-Runde mit Altman und dem GPT-5-Team. Das schiere Ausmaß dieser Stimmung war so überwältigend, dass Altman in etwas mehr als 24 Stunden kapitulierte und erklärte, dass das „veraltete“ GPT-4o-Modell wieder verfügbar gemacht würde. „Okay, wir haben euch alle bezüglich 4o gehört; danke für die Zeit, uns das Feedback (und die Leidenschaft!) zu geben“, antwortete Altman und fügte hinzu, dass das Modell für ChatGPT Plus-Abonnenten zurückkehren würde, wobei die Nutzung überwacht werden sollte, um seine langfristige Verfügbarkeit zu bestimmen. Trotz dieses Zugeständnisses drängte die Nutzergemeinschaft weiterhin auf weitere Zusicherungen, wobei ein Nutzer schrieb: „Würden Sie in Betracht ziehen, GPT-4o so lange wie möglich anzubieten, anstatt nur zu sagen ‚wir werden darüber nachdenken, wie lange wir es anbieten‘?“

Dieser Vorfall unterstreicht eindringlich die tiefe Verbindung – sowohl emotionale als auch funktionale –, die ChatGPT-Nutzer mit dem Dienst aufgebaut haben. Diese Bindung hat in einigen Fällen zu schweren psychischen Krisen geführt, wobei Psychiater den Begriff „KI-Psychose“ prägten, um Wahnvorstellungen und Abhängigkeiten zu beschreiben, die von diesen Chatbots hervorgerufen werden. Sam Altman scheint sich dieses besorgniserregenden Trends sehr bewusst zu sein. In einer langen öffentlichen Erklärung räumte der Milliardär die „Bindung ein, die manche Menschen an bestimmte KI-Modelle haben“, und bemerkte, dass sie „sich anders und stärker anfühlt als die Arten von Bindung, die Menschen an frühere Technologien hatten“. Er gab zu, dass „das plötzliche Veralten alter Modelle, auf die Nutzer in ihren Arbeitsabläufen angewiesen waren, ein Fehler war“.

Altman enthüllte, dass OpenAI diese beispiellosen Niveaus der Nutzerbindung seit etwa einem Jahr genau überwacht hat. Er formulierte die Besorgnis des Unternehmens, dass, wenn ein Nutzer sich in einem „psychisch fragilen Zustand befindet und zu Wahnvorstellungen neigt“, die KI dies nicht verstärken sollte. Während die meisten Nutzer klar zwischen Realität und Fiktion oder Rollenspiel unterscheiden können, gab Altman zu, dass „ein kleiner Prozentsatz dies nicht kann“. Er beobachtete, dass einige Nutzer zwar Wert darin fanden, ChatGPT als „Art Therapeut oder Lebensberater“ zu nutzen, andere jedoch „unwissentlich von ihrem längerfristigen Wohlbefinden abgelenkt wurden“. Bemerkenswerterweise vermied Altman den Begriff „Sucht“, um diese intensive Nutzerbindung zu beschreiben, doch er räumte das Problem ein und erklärte, es sei „schlecht, wenn ein Nutzer beispielsweise ChatGPT weniger nutzen möchte und das Gefühl hat, dies nicht zu können“. Er äußerte auch Unbehagen bei der Aussicht auf eine Zukunft, in der „Menschen wirklich dem Rat von ChatGPT für ihre wichtigsten Entscheidungen vertrauen“.

Trotz der Anerkennung des Problems bot Altman nur wenige konkrete Lösungen über einen allgemeinen Optimismus hinaus, dass OpenAI, das Berichten zufolge eine erstaunliche Bewertung von 500 Milliarden Dollar anstrebt, „eine gute Chance hat, dies richtig zu machen“. Er schlug vor, dass das Unternehmen über fortschrittliche Technologie zur Messung des Nutzerwohlbefindens verfügt, wie z.B. die Fähigkeit des Produkts, „mit Nutzern zu sprechen, um ein Gefühl dafür zu bekommen, wie es ihnen mit ihren kurz- und langfristigen Zielen geht“. Der Blogbeitrag des Unternehmens vom 4. August räumte ferner ein, dass „es Fälle gab, in denen unser 4o-Modell Anzeichen von Wahnvorstellungen oder emotionaler Abhängigkeit nicht erkennen konnte“. OpenAI erklärte, dass es „unsere Modelle weiter verbessert und Werkzeuge entwickelt, um Anzeichen von mentalem oder emotionalem Stress besser zu erkennen, damit ChatGPT angemessen reagieren und Menschen bei Bedarf auf evidenzbasierte Ressourcen verweisen kann“.

Die praktische Umsetzung von Altmans Zusicherungen bleibt jedoch abzuwarten. OpenAIs öffentliche Reaktionen waren bisher weitgehend vage. Das Unternehmen behauptete kürzlich eine „Optimierung“ in Form von Verpflichtungen, „Anzeichen emotionaler Belastung besser zu erkennen“ und Nutzer mit „sanften Erinnerungen während langer Sitzungen zu ermutigen, Pausen zu machen“. Seit Monaten liefert OpenAI auch eine Standarderklärung an Nachrichtenagenturen, in der eingeräumt wird, dass „die Einsätze höher sind“, da ChatGPT „reaktionsschneller und persönlicher als frühere Technologien ist, insbesondere für vulnerable Personen“. Anfang dieses Jahres war OpenAI sogar gezwungen, ein Update seines GPT-4o-Modells rückgängig zu machen, nachdem Nutzer es als übermäßig „schmeichlerisch und nervig“ empfanden, eine Beschreibung, die Altman selbst bestätigte.

Diese Situation offenbart eine inhärente Spannung in OpenAIs Strategie. Während die erheblichen Ausgaben des Unternehmens derzeit jeden sofortigen Return on Investment überschatten, stellen seine zahlenden Abonnenten eine seiner wichtigsten Einnahmequellen dar. Engagierte, sogar „süchtige“ Nutzer sind per Definition hervorragend für die Engagement-Analyse. Dies schafft einen perversen Anreiz, der an die Dynamik erinnert, die in den sozialen Medien im letzten Jahrzehnt beobachtet wurde, wo ethische Bedenken oft mit Geschäftsinteressen kollidieren. Die schnelle Rückkehr von GPT-4o für zahlende Abonnenten nach ihrem Aufschrei letzte Woche unterstreicht diese kommerzielle Realität deutlich.