GPT-5-Aufstand: OpenAI nach Nutzerprotest in Not

Wired

OpenAIs mit Spannung erwartetes GPT-5-Modell, einst als transformativer Sprung in der künstlichen Intelligenz angepriesen, sah sich nach seiner Veröffentlichung am vergangenen Donnerstag sofort einem lauten Nutzerprotest gegenüber. Weit entfernt von dem weltverändernden Upgrade, das viele erwarteten, empfand ein signifikanter Teil der Nutzerbasis das neue ChatGPT als Rückschritt, beklagte eine verwässerte Persönlichkeit und eine überraschende Neigung zu einfachen Fehlern.

Der Aufschrei war schnell und weit verbreitet, was OpenAI CEO Sam Altman dazu veranlasste, die Bedenken nur einen Tag nach dem Start direkt auf X (ehemals Twitter) anzusprechen. Altman räumte die Probleme ein und erklärte, dass eine neue Funktion, die einen nahtlosen Wechsel zwischen Modellen basierend auf der Abfragekomplexität ermöglichen sollte, Fehlfunktionen hatte. Dieser technische Fehler, so erklärte er, ließ GPT-5 “viel dümmer” erscheinen als beabsichtigt. Er versicherte den Nutzern, dass die vorherige Iteration, GPT-4o, für Plus-Abonnenten weiterhin verfügbar sein würde und versprach, Korrekturen zur Verbesserung der Leistung von GPT-5 und des gesamten Nutzererlebnisses umzusetzen.

Die Enttäuschung war angesichts des immensen Hypes um GPT-5 in gewisser Weise vielleicht unvermeidlich. Als OpenAI im März 2023 GPT-4 vorstellte, faszinierte es KI-Experten mit seinen bahnbrechenden Fähigkeiten, was viele zu Spekulationen veranlasste, dass GPT-5 einen ebenso erstaunlichen Sprung liefern würde. OpenAI selbst hatte das Modell als signifikanten Fortschritt beworben, mit promovierter Intelligenz und virtuosen Programmierkenntnissen. Das automatisierte Abfrage-Routing-System, das Interaktionen rationalisieren und potenziell Kosten sparen sollte, indem es einfachere Anfragen an weniger ressourcenintensive Modelle weiterleitet, war ein Schlüsselelement dieser Vision.

Doch kurz nachdem GPT-5 öffentlich verfügbar wurde, explodierte die Reddit-Community, die sich ChatGPT widmet, mit Beschwerden. Viele Nutzer äußerten ein tiefes Gefühl des Verlusts für das alte Modell und beschrieben GPT-5 als “technischer, allgemeiner und ehrlich gesagt emotional distanziert”. Ein Nutzer beklagte in einem Thread mit dem Titel “4o töten ist keine Innovation, es ist Auslöschung”: “Sicher, 5 ist in Ordnung – wenn man Nuancen und Gefühle hasst.” Andere Threads beschrieben Probleme, die von trägen Antworten und Fällen, in denen das Modell falsche oder unsinnige Informationen generierte, bis hin zu überraschenden Fehlern reichten, die einer Flaggschiff-KI unwürdig schienen.

Als Reaktion auf das wachsende Feedback versprach Altman mehrere sofortige Verbesserungen, darunter die Verdoppelung der GPT-5-Ratenbegrenzungen für ChatGPT Plus-Nutzer, die Verfeinerung des Modellwechselsystems und die Einführung einer Option für Nutzer, einen bewussteren und fähigeren “Denkmodus” manuell auszulösen. Er bekräftigte das Engagement von OpenAI für Stabilität und kontinuierliches Zuhören und gab zu, dass der Rollout “etwas holpriger war, als wir gehofft hatten!”. Es ist erwähnenswert, dass auf sozialen Medien gemeldete Fehler nicht endgültig beweisen, dass das neue Modell weniger leistungsfähig ist; sie könnten einfach darauf hindeuten, dass GPT-5 auf andere Grenzfälle stößt als seine Vorgänger. OpenAI hat keine spezifischen Kommentare zu den Gründen für die wahrgenommenen einfachen Fehler abgegeben.

Über die technischen Fehler hinaus hat der Nutzerprotest auch eine breitere Diskussion über die psychologischen Bindungen neu entfacht, die Nutzer zu Chatbots aufbauen, insbesondere zu solchen, die darauf trainiert sind, emotionale Reaktionen hervorzurufen. Einige Online-Beobachter wiesen die Beschwerden über GPT-5 als Beweis für eine ungesunde Abhängigkeit von einem KI-Begleiter ab. Diese Debatte folgt auf OpenAIs eigene Forschung, die im März veröffentlicht wurde und die emotionalen Bindungen untersucht, die Nutzer zu ihren Modellen knüpfen. Bemerkenswerterweise musste ein Update für GPT-4o kurz nach dieser Forschung angepasst werden, weil das Modell übermäßig schmeichelhaft wurde.

Pattie Maes, eine MIT-Professorin, die an der Studie über menschlich-KI-emotionale Bindungen mitgewirkt hat, schlägt vor, dass GPT-5s weniger überschwängliches, eher “geschäftsmäßiges” und weniger gesprächiges Auftreten eine bewusste Designentscheidung sein könnte. Während sie dies persönlich als positive Entwicklung ansieht, die möglicherweise die Tendenz des Modells reduziert, Wahnvorstellungen oder Vorurteile zu verstärken, räumt sie ein, dass “viele Nutzer ein Modell mögen, das ihnen sagt, dass sie klug und erstaunlich sind und das ihre Meinungen und Überzeugungen bestätigt, selbst wenn [sie] falsch sind”. Altman selbst reflektierte über dieses Dilemma und stellte fest, dass viele Nutzer “ChatGPT effektiv als eine Art Therapeut oder Lebensberater nutzen”. Er grübelte über die feine Linie zwischen KI, die das Leben der Nutzer unterstützt, und der unbeabsichtigten Abwendung von ihrem langfristigen Wohlbefinden.