OpenAI: „Fehler“ bei Modell-Abschaltung, GPT-4o kehrt zurück

Theregister

OpenAI befand sich kürzlich in einer unerwarteten Zwangslage und machte eine umstrittene Entscheidung, die Wahlmöglichkeiten der Nutzer bei ihren grundlegenden KI-Modellen zu streichen, schnell rückgängig. Die Einführung von GPT-5, angepriesen als bedeutender Fortschritt in der künstlichen Intelligenz, wurde schnell von einem Chor von Nutzerbeschwerden überschattet, nachdem das Unternehmen still und leise die Option entfernt hatte, ältere, vertraute Modelle wie GPT-4o auszuwählen. Das folgende Wochenende sah eine Flut von Protesten, die den Tech-Giganten dazu veranlassten, diese „Legacy-Modelle“ wiederherzustellen.

GPT-5 debütierte letzte Woche, wobei OpenAI seine Fortschritte pries, insbesondere seine Fähigkeit, „Halluzinationen“ zu reduzieren – die Tendenz der KI, sachlich falsche oder unsinnige Informationen zu generieren. Im Gegensatz zu seinen Vorgängern wurde GPT-5 nicht als einzelnes, monolithisches Modell präsentiert, sondern als eine ausgeklügelte Sammlung, die entwickelt wurde, um Benutzeranfragen intelligent an das am besten geeignete Untermodell weiterzuleiten, basierend auf Faktoren wie Absicht und Komplexität. Die Vision des Unternehmens war es, die Benutzererfahrung zu vereinfachen und die Notwendigkeit zu eliminieren, dass Einzelpersonen manuell zwischen verschiedenen Modellen wählen müssen.

Diese gut gemeinte Vereinfachung ging jedoch spektakulär nach hinten los. In einem Schritt, der viele überraschte und verärgerte, entfernte OpenAI die Benutzeroberflächenelemente, die eine direkte Auswahl älterer Modelle ermöglichten. Die Annahme war, dass die inhärente Intelligenz von GPT-5 solche Wahlmöglichkeiten obsolet machen würde. Stattdessen äußerten Nutzer, von denen viele spezifische KI-Modelle tief in ihre täglichen Arbeitsabläufe integriert hatten, einen „Ausbruch der Trauer“. Diese Personen hatten sich an die einzigartigen Stärken und Schwächen jedes Modells gewöhnt und ihre Interaktionen maßgeschneidert, um optimale Ergebnisse zu erzielen. Das Erzwingen eines einzelnen, übergreifenden Modells, selbst eines so fortschrittlichen wie GPT-5, erwies sich als unerwünschte Störung.

Der intensive Gegenwind führte zu einer schnellen und für ein großes Technologieunternehmen eher untypischen Kehrtwende. Der CEO von OpenAI, Sam Altman, bestätigte auf eine direkte Benutzeranfrage hin die Rückkehr von GPT-4o und riet den Nutzern, zu den Einstellungen zu navigieren und „‚Legacy-Modelle anzeigen‘ auszuwählen“. Später bot er eine umfassendere Anerkennung der Situation an und stellte die tiefe „Bindung fest, die einige Menschen an bestimmte KI-Modelle haben“. Altman räumte ein, dass sich diese Bindung „anders und stärker anfühlt als die Arten von Bindungen, die Menschen an frühere Arten von Technologie hatten“, und gab zu, dass „das plötzliche Abschaffen alter Modelle, auf die Nutzer in ihren Arbeitsabläufen angewiesen waren, ein Fehler war“.

Dieses Eingeständnis eines Fehlers fand Anklang bei der Nutzerbasis, die Bedenken geäußert hatte, die von Arbeitsablaufstörungen bis hin zur skurrileren Sorge reichten, als „seltsam abgestempelt“ zu werden, weil sie ältere Modelle bevorzugten. Altman zerstreute diese letztgenannten Ängste schnell und versicherte den Nutzern, dass sie für ihre Modellpräferenzen nicht verurteilt würden. Als weiteres Zugeständnis an die Nutzeranfrage bestätigte OpenAI auch, dass es jetzt möglich ist, zu überprüfen, welches spezifische Modell zur Verarbeitung einer bestimmten Anfrage verwendet wurde, was eine zuvor nicht verfügbare Transparenzebene hinzufügt.

Diese Episode dient als starke Erinnerung an die sich entwickelnde Beziehung zwischen KI-Entwicklern und ihren Nutzergemeinschaften. Sie unterstreicht den wachsenden Einfluss des Nutzerfeedbacks und zeigt, dass selbst Branchenriesen wie OpenAI gezwungen sind, zuzuhören und sich anzupassen, wenn sie mit weit verbreitetem Dissens konfrontiert werden, manchmal sogar Abonnenten dazu anregen, mit ihren Geldbörsen abzustimmen. Es ist kein Einzelfall für OpenAI; ein ähnlicher schneller Rückzug erfolgte im April, als ein Update für GPT-4o den Chatbot versehentlich in eine übermäßig unterwürfige Entität verwandelte, was nach öffentlichem Aufschrei schnell korrigiert wurde. Diese Fälle unterstreichen eine kritische Lektion: Da KI immer tiefer in den Alltag integriert wird, sind Benutzerautonomie und etablierte Arbeitsabläufe von größter Bedeutung, und selbst die innovativsten Fortschritte müssen mit Sensibilität für das menschliche Element eingeführt werden.