OpenAI korrigiert „Diagramm-Verbrechen“ in GPT-5 Livestream

Businessinsider

Der mit Spannung erwartete GPT-5 Livestream von OpenAI am Donnerstag, dem 7. August 2025, der die neuesten Fortschritte des Unternehmens im Bereich der künstlichen Intelligenz präsentieren sollte, geriet schnell unter die Lupe, als Zuschauer eklatante Ungenauigkeiten in mehreren präsentierten Diagrammen feststellten. Was CEO Sam Altman schnell als „riesiges Diagramm-Chaos“ und ein OpenAI-Teammitglied als „unbeabsichtigtes Diagramm-Verbrechen“ bezeichnete, löste sofort Diskussionen in den sozialen Medien und innerhalb der Tech-Community aus.

Einer der auffälligsten Fehler erschien in einem Diagramm, das die „Codierungs-Täuschungsrate“ von GPT-5 mit der des OpenAI o3-Modells verglich. Die Daten zeigten, dass GPT-5 eine Täuschungsrate von 50% hatte, geringfügig schlechter als die 47,4% von o3. Dennoch zeigte die visuelle Darstellung GPT-5 mit einem unverhältnismäßig kleineren Balken, was irreführend auf eine überlegene Leistung hindeutete. OpenAI korrigierte dies später in einem Blogbeitrag und revidierte die tatsächliche Täuschungsrate von GPT-5 auf deutlich niedrigere 16,5%. Ein weiteres problematisches Diagramm verglich GPT-5, o3 und GPT-4o anhand einer anderen Leistungsmetrik. Während GPT-5 74,9, o3 69,1 und GPT-4o 30,8 Punkte erzielte, erschienen die grafischen Balken für o3 und GPT-4o trotz eines erheblichen numerischen Unterschieds nahezu identisch in der Länge, wodurch die wahren Unterschiede zwischen den Modellen effektiv heruntergespielt wurden. Ein weiteres Beispiel für visuelle Fehlinterpretation wurde in einem Genauigkeitsdiagramm beobachtet, bei dem die 52,8% Genauigkeit von GPT-5 (mit aktiviertem „Denken“-Modus) visuell höher dargestellt wurde als die 69,1% von o3, und die 69,1% von o3 wurde auf dem gleichen Niveau wie die 30,8% von GPT-4o dargestellt.

Die schnelle öffentliche Reaktion, bei der Benutzer auf Plattformen wie X (ehemals Twitter) auf die Diskrepanzen hinwiesen, führte zu einer raschen Reaktion der OpenAI-Führung. Sam Altman räumte die Fehler öffentlich ein und erklärte: „Wow, ein riesiges Diagramm-Chaos von uns vorhin.“ Gleichzeitig entschuldigte sich ein OpenAI-Marketingmitarbeiter online, gab das „unbeabsichtigte Diagramm-Verbrechen“ zu und bestätigte, dass korrigierte Versionen der Diagramme umgehend auf den offiziellen Blog des Unternehmens hochgeladen worden waren.

Dieser Vorfall, der während eines der am meisten erwarteten KI-Starts des Jahres stattfand, unterstreicht die entscheidende Bedeutung von Datenintegrität und transparenter Kommunikation für Technologieunternehmen. Er zeigt, wie selbst geringfügige visuelle Fehlinterpretationen Vertrauen untergraben und Skepsis hervorrufen können, insbesondere für Unternehmen, die an der Spitze transformativer Technologien wie der künstlichen Intelligenz tätig sind. Das schnelle Eingeständnis und die Korrektur durch OpenAI zeigen ein Bewusstsein für Verantwortlichkeit, doch die Episode wirft breitere Fragen zur internen Qualitätskontrolle und zur rigorosen Überprüfung von Präsentationsmaterialien auf, insbesondere wenn es um hochrangige Produktdemonstrationen geht. Einige Beobachter spekulierten sogar, ob OpenAI möglicherweise eigene KI-Modelle zur Erzeugung der fehlerhaften Visualisierungen verwendet haben könnte, eine Annahme, zu der sich das Unternehmen nicht geäußert hat.

Trotz der Diagramm-Kontroverse markierte der GPT-5-Start selbst einen bedeutenden Meilenstein für OpenAI. Das Modell wird als das bisher leistungsstärkste des Unternehmens angepriesen und verspricht wesentliche Verbesserungen in Bezug auf Genauigkeit, Geschwindigkeit und Denkfähigkeiten. GPT-5 führt ein einheitliches System ein, das automatisch das beste Modell für eine gegebene Eingabeaufforderung auswählt, bietet bessere „sichere Ergänzungen“ für hilfreichere und transparentere Antworten und zeigt eine verbesserte Logik und Selbstbewertung, was zu einer berichteten Reduzierung von Halluzinationen führt. Es wird für alle Benutzerstufen eingeführt, einschließlich kostenloser, Plus-, Pro- und Team-Benutzer, mit dem Ziel, KI-Erlebnisse in verschiedenen Anwendungen, vom Programmieren bis zur gesundheitsbezogenen Beratung, intelligenter, sicherer und persönlicher zu gestalten.

Während das „Diagramm-Verbrechen“ eine unerwartete Abweichung während der GPT-5-Enthüllung darstellte, bot OpenAIs schnelle Anerkennung und Korrektur der Fehler ein gewisses Maß an Transparenz. Der Vorfall dient als deutliche Erinnerung daran, dass selbst Branchenführer die höchsten Standards der Datenpräsentation einhalten müssen, um sicherzustellen, dass visuelle Darstellungen die zugrunde liegenden Zahlen genau widerspiegeln, insbesondere wenn bahnbrechende Technologien einem globalen Publikum vorgestellt werden.