GPT-5 enttäuscht: Stößt KI-Innovation an ihre Grenzen?

Ft

Der mit Spannung erwartete Start von OpenAIs neuem Modell für künstliche Intelligenz, GPT-5, letzte Woche sollte ein entscheidender Moment sein. CEO Sam Altman pries es als “einen bedeutenden Schritt auf dem Weg zur AGI” oder Künstlichen Allgemeinen Intelligenz an, die sich auf KI-Systeme bezieht, die menschliche Intelligenz erreichen oder übertreffen könnten. Führungskräfte hofften auch, dass das Modell die Benutzererfahrung von ChatGPT, dem vielseitigen Chatbot, der zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte geworden ist, verbessern würde.

Doch die versprochenen positiven “Vibes” verflogen schnell. Benutzer überfluteten die sozialen Medien mit Bildern, die grundlegende Fehler illustrierten, wie die falsche Beschriftung einer US-Karte – ein wiederkehrendes Problem früherer Modelle. Kritischer äußerten fortgeschrittene Benutzer Enttäuschung über eine wahrgenommene Verschiebung der “Persönlichkeit” des Modells und stellten dessen enttäuschende Leistung in Standard-Benchmarks im Vergleich zu Konkurrenten fest. Trotz des immensen Hypes wird GPT-5 nun weithin als lediglich inkrementelles Upgrade und nicht als revolutionärer Sprung wie bei früheren GPT-Iterationen angesehen. Thomas Wolf, Mitbegründer von Hugging Face, fasste zusammen: “Die Leute erwarteten, etwas völlig Neues zu entdecken. Und hier hatten wir das nicht wirklich.”

Mit Hunderten von Milliarden Dollar, die in generative KI geflossen sind, hallt nun eine drängende Frage durch Silicon Valley: Was, wenn das so gut ist, wie es nur geht? Drei Jahre lang haben sich KI-Forscher und Investoren an ein unerbittliches Innovationstempo gewöhnt. OpenAI, einst scheinbar unangreifbar, hat gesehen, wie Konkurrenten wie Google, Anthropic, DeepSeek und Elon Musks xAI schnell aufholen. Dies befeuerte kühne Vorhersagen über eine bevorstehende AGI, wobei Altman ihre Ankunft während Donald Trumps Präsidentschaft prognostizierte. Diese hochfliegenden Erwartungen, die OpenAIs prognostizierte Bewertung von 500 Milliarden Dollar untermauern, kollidierten mit der Realität, als GPT-5 nicht beeindruckte. Gary Marcus, ein prominenter KI-Kritiker, drückte es drastisch aus: “GPT-5 war dieses zentrale Symbol des gesamten Ansatzes der Skalierung, um zur AGI zu gelangen, und es hat nicht funktioniert.”

Stuart Russell, Professor für Informatik an der UC Berkeley, zieht Parallelen zum “KI-Winter” der 1980er Jahre, als Innovationen die Erwartungen nicht erfüllten und keine Renditen lieferten. Er erinnert sich, dass damals die “Blase platzte”, da die Systeme kein Geld verdienten. Russell warnt davor, dass sich ein ähnliches Szenario heute schnell entfalten könnte, und vergleicht es mit einem Spiel der Reise nach Jerusalem, bei dem sich alle beeilen, um nicht mit dem “KI-Baby” dazustehen. Während einige argumentieren, dass die Technologie noch in den Kinderschuhen steckt und Kapital weiterhin fließt, warnt Russell, dass überzogene Erwartungen dramatisch nach hinten losgehen können.

Eine zentrale Herausforderung ergibt sich aus der vorherrschenden Methode zum Bau großer Sprachmodelle: Mehr Daten und Rechenleistung führen zu größeren, leistungsfähigeren Modellen. Während viele KI-Führer glauben, dass diese “Skalierungsgesetze” Bestand haben werden, stößt dieser Ansatz an Ressourcengrenzen. KI-Unternehmen haben die frei verfügbaren Trainingsdaten weitgehend erschöpft und verfolgen nun aktiv Vereinbarungen zur Inhaltsfreigabe mit Verlagen. Darüber hinaus ist das Training und der Betrieb großer Modelle unglaublich energieintensiv. GPT-4 verwendete Tausende von Nvidia-Chips; GPT-5 verwendete Berichten zufolge Hunderttausende von Prozessoren der nächsten Generation. OpenAI-CEO Sam Altman räumte diese Grenzen kürzlich ein und erklärte, dass die zugrunde liegenden KI-Modelle zwar “immer noch schnell besser werden”, Chatbots wie ChatGPT jedoch “nicht viel besser werden”.

Einige KI-Forscher argumentieren, dass der intensive Fokus auf die Skalierung großer Sprachmodelle den Fortschritt unbeabsichtigt begrenzt hat, indem er alternative Forschung überschattete. Yann LeCun, Chefwissenschaftler von Meta, glaubt: “Wir treten in eine Phase sinkender Erträge bei reinen LLMs ein, die mit Text trainiert wurden.” Er betont jedoch, dass dies keine Obergrenze für “tiefenlernbasierte KI-Systeme bedeutet, die darauf trainiert sind, die reale Welt durch Video und andere Modalitäten zu verstehen.” Diese “Weltmodelle” lernen aus Elementen der physischen Welt jenseits der Sprache und ermöglichen Planung, Argumentation und dauerhaftes Gedächtnis, was möglicherweise Fortschritte bei selbstfahrenden Autos oder Robotik vorantreibt. Joelle Pineau, Chief AI Officer bei Cohere, stimmt zu: “Einfach weiterhin Rechenleistung hinzuzufügen und auf eine theoretische AGI abzuzielen, wird nicht ausreichen.”

Misstrauen bezüglich einer Verlangsamung der KI-Entwicklung beeinflusst bereits die US-Handels- und Technologiepolitik. Unter der Regierung von Präsident Joe Biden lag der Schwerpunkt fest auf Sicherheit und Regulierung, angetrieben von der Sorge, dass das schnelle Wachstum der KI gefährliche Folgen haben könnte. Donald Trumps libertäre Neigungen deuteten immer darauf hin, dass die KI-Regulierung weniger Priorität haben würde, aber selbst in jüngster Zeit führten nationale Sicherheitsbedenken dazu, dass Washington Exportkontrollen für Nvidias H20-Chips für China androhte. Ein klares Signal für Washingtons veränderte Perspektive kam von David Sacks, Trumps KI-Zar, der erklärte, dass “apokalyptische Vorhersagen von Arbeitsplatzverlusten genauso übertrieben sind wie die AGI selbst.” Sacks postulierte, dass der KI-Markt einen “Goldlöckchen”-Zustand des Gleichgewichts erreicht habe, mit engem Wettbewerb und einer klaren menschlichen Rolle. Kurz darauf schloss Trump eine Vereinbarung mit Nvidia-CEO Jensen Huang, um die H20-Verkäufe nach China wieder aufzunehmen, und erwog sogar, modifizierte Versionen leistungsstärkerer Blackwell-Systeme zuzulassen. Analysten deuten an, dass Washingtons Fokus, da AGI nicht mehr als unmittelbares Risiko angesehen wird, sich darauf verlagert hat, sicherzustellen, dass in den USA hergestellte KI-Chips und -Modelle weltweit dominieren.

Obwohl es vielleicht nicht die Absicht von OpenAI war, unterstreicht der Start von GPT-5 eine grundlegende Verschiebung: KI-Unternehmen “finden sich langsam damit ab, dass sie Infrastruktur für Produkte bauen”, so Sayash Kapoor, ein Forscher an der Princeton University. Sein Team stellte fest, dass die Leistung von GPT-5 durchweg mittelmäßig war, aber es zeichnete sich dadurch aus, dass es “ziemlich kostengünstig und auch viel schneller als andere Modelle” war. Diese Effizienz könnte signifikante Innovationen bei Produkten und Dienstleistungen freisetzen, selbst ohne außergewöhnliche Durchbrüche in Richtung AGI. Miles Brundage, ein KI-Politikforscher, bemerkt: “Es ist sinnvoll, dass die Menschen sich mehr auf die Anwendungen konzentrieren, als auf abstraktere Ideen wie AGI, wenn KI auf viele nützliche Weisen angewendet wird.” Führende KI-Unternehmen setzen jetzt “Forward-Deployed Engineers” ein, um Modelle direkt in Kundensysteme einzubetten. Kapoor weist darauf hin: “Unternehmen würden das nicht tun, wenn sie dächten, sie stünden kurz davor, die gesamte menschliche Arbeit für den Rest der Zeit zu automatisieren.”

Trotz der offensichtlichen Verlangsamung in der grundlegenden KI-Entwicklung.