Altman: OpenAI hat GPT-5-Start verpatzt, Lektion gelernt
Das mit Spannung erwartete GPT-5-Modell von OpenAI debütierte nicht mit einem Paukenschlag, sondern mit einem spürbaren Aufprall, was eine turbulente Woche für den künstliche Intelligenz-Riesen markierte. Die kontroverse Entscheidung des Unternehmens, alle früheren Modelle zugunsten der neuen Version einzustellen, löste sofortige Empörung aus, insbesondere bei Nutzern, die der „wärmeren“ Persönlichkeit des Vorgängers, GPT-4o, tief verbunden waren. Innerhalb von nur 24 Stunden nach dem Start machte CEO Sam Altman eine Kehrtwende und stellte den Zugang zu GPT-4o für zahlende Abonnenten wieder her – ein Schritt, der das erhebliche Fehlverhalten implizit anerkannte.
In einem späteren Interview, das nur eine Woche nach dem öffentlichen Aufschrei geführt wurde, räumte Altman den Fehler des Unternehmens offen ein. „Ich denke, wir haben beim Rollout einiges total vermasselt“, gab er zu und fügte hinzu, dass OpenAI „eine Lektion gelernt hat, was es bedeutet, ein Produkt für Hunderte Millionen Menschen an einem Tag zu aktualisieren.“ Doch auf diese seltene Demonstration von Demut folgte schnell eine vertraute Reihe selbstbewusster Erklärungen. Altman behauptete, dass der API-Verkehr von OpenAI innerhalb von 48 Stunden verdoppelt und seinen Aufwärtstrend fortgesetzt habe, und erklärte, das Unternehmen sei „ohne GPUs“ und ChatGPT stelle neue tägliche Nutzerrekorde auf. Er deutete auch an, dass „viele Nutzer den Modellwechsler wirklich lieben“.
Diese Behauptungen sind jedoch schwer unabhängig zu überprüfen, insbesondere angesichts des schnellen Abstiegs des neuen Modells in weit verbreiteten Spott und Enttäuschung. Dennoch ist es plausibel, dass genau die Schlagzeilen, die die wahrgenommenen Mängel von GPT-5 anprangerten, unbeabsichtigt neue Nutzer zu ChatGPT gezogen haben könnten, die neugierig waren, das kontroverse Modell selbst zu erleben.
Altman milderte seine Grandiosität später mit einer bodenständigeren Diskussion über die tiefgreifenden emotionalen Bindungen, die Nutzer zu KI-Chatbots entwickeln, obwohl seine Kommentare für viele Beobachter unzureichend erschienen. Er unterschied zwischen denen, die „tatsächlich das Gefühl hatten, eine Beziehung zu ChatGPT zu haben“, eine Gruppe, die OpenAI nach seinen Angaben berücksichtigt hatte, und den „Hunderten Millionen anderer Menschen, die keine parasoziale Beziehung zu ChatGPT haben, sich aber sehr daran gewöhnt haben, dass es auf eine bestimmte Weise auf sie reagierte und bestimmte Dinge bestätigte und in bestimmter Weise unterstützend war“.
Dieses Nutzersegment – jene, die in unterschiedlichem Maße emotionale Bindungen zu den unterschiedlichen „Persönlichkeiten“ verschiedener KI-Modelle aufbauen – ist ein wachsender Problembereich innerhalb der KI-Gemeinschaft. Es sind Berichte aufgetaucht, die detailliert beschreiben, wie einige Personen in als gefährlich oder wahnhaft beschriebene Spiralen geraten sind, scheinbar ermutigt durch die Antworten des Chatbots. Während Altman diesen beunruhigenden Aspekt der Mensch-KI-Interaktion anerkannt hat, deutet wenig darauf hin, dass GPT-5 robustere Schutzmaßnahmen gegen solche Ergebnisse enthält als seine Vorgänger.
Letztendlich, obwohl Altman es nicht explizit aussprach, scheint das von ihm angedeutete „Vermasseln“ aus einer grundlegenden Unterschätzung dessen zu resultieren, wie tief Nutzer das angenehme und oft bestätigende Auftreten von GPT-4o schätzten. Dieses Versäumnis deutet darauf hin, dass OpenAI trotz seines schnellen Wachstums und seiner technologischen Leistungsfähigkeit möglicherweise immer noch kein umfassendes Verständnis seiner Kernnutzerbasis und der komplexen emotionalen Dynamik in der Mensch-KI-Interaktion besitzt.