GPT-5s schlechte Leistung: OpenAIs Sparstrategie?
Der Start von OpenAIs mit Spannung erwartetem GPT-5-Modell in der letzten Woche markierte eine unerwartet turbulente Zeit für den Giganten der künstlichen Intelligenz. Während interne Metriken Berichten zufolge bescheidene Leistungssteigerungen zeigten, erwies sich die Benutzererfahrung als weitgehend enttäuschend, was zu einem erheblichen Gegenwind aus der engagierten Community führte. Häufige Beschwerden konzentrierten sich auf die Kürze, einen spürbaren Rückgang der Schreibqualität und einen deutlichen Mangel an der Persönlichkeit, an die sich die Benutzer gewöhnt hatten. Auffälliger ist, dass das Modell trotz seiner angepriesenen „PhD-Level“-Intelligenz elementare Fehler machte, wie zum Beispiel die falsche Behauptung, das Wort „blueberry“ enthalte drei Buchstaben ‘B’.
Die Benutzerunzufriedenheit war so tiefgreifend, dass viele die Wiedereinführung des vorherigen Modells, GPT-4o, forderten, das OpenAI bei der Einführung von GPT-5 kühn entfernt hatte. In einer vielsagenden Wendung der Ereignisse kapitulierte das Unternehmen schnell vor diesen Forderungen und stellte den Zugang zur älteren, beliebteren Iteration wieder her. Diese sofortige Kehrtwende warf einen Schatten auf die früheren Äußerungen von CEO Sam Altman, dass GPT-5 einen „bedeutenden Schritt auf dem Weg zur AGI“, oder allgemeiner künstlicher Intelligenz, darstelle.
Eine faszinierende Theorie ist aufgetaucht, um den enttäuschenden Empfang von GPT-5 zu erklären: Es geht möglicherweise weniger um einen bahnbrechenden Sprung in der KI-Fähigkeit als vielmehr um einen strategischen Schritt zur Optimierung der Betriebskosten. Diese Perspektive, die von Publikationen wie The Register untersucht wurde, hebt den immensen finanziellen Druck in der aufstrebenden KI-Branche hervor, wo Unternehmen wie OpenAI Milliarden an Computerressourcen verbrennen, während sie vergleichsweise moderate Einnahmen erzielen. Die Umstellung könnte ein Versuch von OpenAI sein, die Ausgaben zu drosseln und ihre Aussichten auf Rentabilität vor dem Ende des Jahrzehnts zu verbessern, eine entmutigende Herausforderung angesichts ihrer erwarteten Bewertung von rund 500 Milliarden Dollar.
Ein weiteres Argument für diese Theorie ist die Enthüllung über die zugrunde liegende Architektur von GPT-5. Anstatt eines einzigen, monolithischen Modells ist GPT-5 Berichten zufolge ein dynamisches Duo: ein leichtgewichtiges Modell für grundlegende Anfragen und ein robusteres, ressourcenintensiveres für komplexe Denkaufgaben. Ein separates „Router“-Modell hat die Aufgabe, jede Benutzeranfrage intelligent an das passendste der beiden weiterzuleiten. Laut Altman funktionierte dieses Router-Modell am Starttag fehlerhaft, was zu der Wahrnehmung beitrug, dass GPT-5 „viel dümmer“ sei als erwartet. Obwohl der Router seitdem mit angeblichen Verbesserungen wieder online ist, schürte die anfängliche Störung nur die Frustration der Benutzer, insbesondere angesichts der wahrgenommenen Einschränkung ihrer Wahlmöglichkeiten.
Diese Bereitstellung eines „Autoswitchers“ markiert eine bemerkenswerte Abkehr von OpenAIs früherem Ansatz, bei dem zahlende Abonnenten ihr bevorzugtes Modell manuell auswählen konnten. Mehrere große Sprachmodelle gleichzeitig online zu halten, ist ein teures Unterfangen, was die Annahme verstärkt, dass OpenAI eine Phase des Gürtel-Enger-Schnallens durchläuft. Weitere Beweise für Kostensparmaßnahmen sind eine starke Begrenzung auf nur zehn Nachrichten pro Stunde für kostenlose Benutzer. Darüber hinaus bleibt das „Kontextfenster“ des Modells, im Wesentlichen sein Kurzzeitgedächtnis für laufende Gespräche, für Plus-Benutzer bei 32.000 Tokens und für Pro-Benutzer bei 128.000 Tokens unverändert. Viele Abonnenten, insbesondere diejenigen des erschwinglicheren Plus-Tarifs für 20 $/Monat (Pro kostet 200 $/Monat), haben immer wieder um eine Verbesserung in diesem entscheidenden Bereich gebeten.
Das Gefühl, dass GPT-5 hauptsächlich eine Kostenersparnisübung ist, findet in der Benutzergemeinschaft breite Resonanz. Ein Top-Post auf dem r/ChatGPT-Subreddit beispielsweise stellte explizit fest, dass GPT-5 „eindeutig eine Kostenersparnisübung“ sei, und führte aus: „Sie haben all ihre teuren, leistungsfähigen Modelle entfernt und sie durch einen Auto-Router ersetzt, der standardmäßig auf Kostenoptimierung eingestellt ist… Es fühlt sich nach Kostenersparnis an, nicht nach Verbesserung.“
Obwohl unglamourös, sind solche Kostensenkungsmaßnahmen für OpenAI strategisch sinnvoll. Das Unternehmen steht vor beispiellosem Wettbewerb und intensivem Druck, seine kolossale Bewertung durch den Nachweis eines gangbaren Weges zur Rentabilität zu validieren. Doch in seinem Streben nach finanzieller Stabilität unterschätzte OpenAI offenbar die tiefe Bindung, die Benutzer an die Nuancen und Eigenheiten seiner älteren, vielleicht weniger „effizienten“ Modelle entwickelt hatten. Diese unerwartete Benutzerloyalität stellt eine neue, komplexe Herausforderung dar, die der KI-Pionier meistern muss, während er Innovation mit dem Endergebnis in Einklang bringt.