GPT-5-Start von OpenAI: "Mega-Diagramm-Patzer" überschattet Launch
Während des mit Spannung erwarteten GPT-5-Livestreams am Donnerstag wollte OpenAI das Publikum mit einer Reihe von Diagrammen beeindrucken, die die fortschrittlichen Fähigkeiten des neuen Modells veranschaulichen sollten. Eine genauere Untersuchung ergab jedoch erhebliche Diskrepanzen in der visuellen Darstellung einiger Schlüsseldaten, was zu schnellen und offenen Eingeständnissen der Unternehmensführung führte.
Ein besonders auffälliges Beispiel ergab sich aus einem Diagramm, das ironischerweise die Leistung von GPT-5 bei „Täuschungsbewertungen über Modelle hinweg“ demonstrieren sollte. Für eine Metrik namens „Codierungs-Täuschung“ wurde GPT-5 mit einer Täuschungsrate von 50,0 Prozent dargestellt. Ein kleineres OpenAI-Modell, o3, das eine niedrigere Täuschungsrate von 47,4 Prozent aufwies, wurde jedoch unerklärlicherweise durch einen größeren Balken im Diagramm dargestellt. Diese visuelle Verzerrung suggerierte eine bessere Leistung für o3, obwohl der numerische Wert niedriger war.
Die Diagrammprobleme waren nicht isoliert. Ein weiteres problematisches Diagramm zeigte einen der GPT-5-Werte als numerisch niedriger als den von o3, wurde aber mit einem sichtbar größeren Balken dargestellt. Darüber hinaus wurden auf demselben Diagramm die Werte für o3 und GPT-4o, obwohl numerisch unterschiedlich, durch Balken gleicher Größe dargestellt, was die visuelle Integrität der Daten weiter untergrub.
Diese eklatanten Inkonsistenzen blieben auch der OpenAI-Spitze nicht unbemerkt. CEO Sam Altman räumte den Fehler öffentlich ein und bezeichnete ihn als „Mega-Diagramm-Patzer“. Zusätzlich zur Entschuldigung gab ein OpenAI-Marketingmitarbeiter ebenfalls eine Entschuldigung für das, was als „unbeabsichtigtes Diagrammverbrechen“ bezeichnet wurde, ab. Das Unternehmen gab auf Nachfrage zu den Fehlern keine weiteren Kommentare ab.
Der Zeitpunkt dieser visuellen Fehlrepräsentationen ist für OpenAI besonders ungünstig. Das Unternehmen hat die „signifikanten Fortschritte bei der Reduzierung von Halluzinationen“ von GPT-5 stark beworben – eine zentrale Herausforderung bei großen Sprachmodellen, bei denen die KI plausible, aber falsche Informationen generiert. Diagramme zu präsentieren, die selbst visuell irreführend sind, unabhängig von den zugrunde liegenden Datenpunkten, erzeugt eine unglückliche Wahrnehmung für ein Unternehmen, das sich für Genauigkeit und Zuverlässigkeit seiner KI-Ausgaben einsetzt. Während unklar bleibt, ob GPT-5 selbst bei der Generierung dieser fehlerhaften Diagramme verwendet wurde, wirft der Vorfall einen Schatten auf ein Launch-Event, das die Präzision und Genauigkeit des neuen Modells hervorheben sollte. Diese Episode unterstreicht die entscheidende Bedeutung einer sorgfältigen Datenvisualisierung, insbesondere bei der Einführung bahnbrechender technologischer Fortschritte für ein globales Publikum.