Gary Marcus: GPT-5 ist überbewertet und enttäuschend
Die jüngste Enthüllung von GPT-5, OpenAIs neuestem Flaggschiff unter den großen Sprachmodellen, wurde vom prominenten KI-Kritiker Gary Marcus mit einer bekannten Welle der Skepsis aufgenommen. In einem scharf formulierten Blogbeitrag warf Marcus OpenAI vor, eine “überfällige, überbewertete und enttäuschende” Begeisterung zu schüren, und behauptete, dass das neue Modell, weit davon entfernt, ein Durchbruch zu sein, lediglich einen weiteren inkrementellen Schritt in der fortlaufenden Entwicklung der KI darstellt, der weiterhin von anhaltenden, grundlegenden Problemen in der gesamten Branche geplagt wird.
Als langjähriger Skeptiker der Wirksamkeit einer bloßen Skalierung neuronaler Netze zur Erreichung echter Intelligenz nutzte Marcus die Veröffentlichung von GPT-5, um seine Kernkritik zu wiederholen. Er charakterisierte GPT-5 als “den jüngsten inkrementellen Fortschritt” und fügte hinzu, dass es “übereilt wirkte”. Während OpenAI-CEO Sam Altman GPT-5 als ein Erlebnis anpries, das dem “Gespräch mit… einem legitimen promovierten Experten in allem” gleiche, bleibt Marcus unüberzeugt. Er bemerkte spitz, dass GPT-5 “kaum besser ist als der ‘Geschmack des Monats’ vom letzten Monat (Grok 4); bei einigen Metriken (ARC-AGI-2) ist es tatsächlich schlechter”, und bezog sich dabei auf einen gängigen Benchmark zur Messung der KI-Argumentationsfähigkeiten.
Tatsächlich hob Marcus hervor, dass die typischen Fehler, die mit großen Sprachmodellen verbunden sind, fast unmittelbar nach dem Start von GPT-5 auftauchten. Er äußerte den Wunsch, von “einem System, das eine Woche lang ohne dass die Community massenhaft lächerliche Fehler und Halluzinationen findet, ausgekommen wäre” wirklich beeindruckt zu sein. Stattdessen zeigte das System innerhalb weniger Stunden nach seinem Debüt bekannte Mängel, darunter fehlerhafte physikalische Erklärungen während des Release-Livestreams, falsche Antworten auf grundlegende Schachrätsel und Fehler bei der Bildanalyse.
Diese isolierten Fehler, so Marcus, sind keine Anomalien, sondern Symptome branchenweiter Probleme. Er machte auf eine aktuelle Studie der Arizona State University aufmerksam, die seine Bedenken zutiefst widerspiegelt. Die Arbeit legt nahe, dass “Gedankenkette”-Argumentation – eine KI-Methode, die darauf ausgelegt ist, komplexe Probleme in kleinere, sequentielle Schritte zu zerlegen – “eine brüchige Fata Morgana ist, die verschwindet, wenn sie über die Trainingsverteilungen hinausgedrängt wird”. Marcus bemerkte, dass das Lesen der Studienzusammenfassung ihm ein Déjà-vu-Gefühl verschaffte, was seine langjährige Überzeugung bekräftigte, dass “die Achillesferse, die ich damals identifiziert habe, immer noch besteht”.
Dieses Problem der “Distributionsverschiebung”, bei dem KI-Modelle Schwierigkeiten haben, wenn ihnen Daten oder Szenarien außerhalb ihrer spezifischen Trainingsparameter präsentiert werden, ist laut Marcus genau der Grund, warum andere große Modelle, von Grok bis Gemini, bei komplexeren “Transferaufgaben”, die die Anwendung von Wissen auf neuartige Situationen erfordern, ebenfalls versagen. Er behauptete: “Es ist kein Zufall. Dieses Versagen ist prinzipiell”, was auf eine grundlegende Einschränkung und nicht nur auf einen Fehler hindeutet.
Jenseits der technischen Details von GPT-5 erweiterte Marcus seine Kritik auf umfassendere Trends innerhalb des KI-Sektors. Er verurteilte den grassierenden Hype um das Konzept der Künstlichen Allgemeinen Intelligenz (AGI), die Abhängigkeit von handverlesenen Demo-Videos, die Einschränkungen verschleiern, den allgegenwärtigen Mangel an Transparenz bezüglich der Trainingsdaten und eine Branche, die seiner Meinung nach Marketing über echte wissenschaftliche Forschung stellt. In seiner unverblümten Einschätzung: “Uns wurde in den letzten Jahren eine stetige Diät von Schwachsinn serviert.”
Als Korrektiv plädierte Marcus erneut für neurosymbolische Ansätze, die die Mustererkennungsstärken neuronaler Netze mit den logischen Argumentationsfähigkeiten symbolischer KI kombinieren und oft “explizite Weltmodelle” integrieren, die der KI ein klareres Verständnis der Regeln ihrer Umgebung vermitteln. Für Marcus ist der Start von GPT-5 kein Schritt in Richtung AGI, sondern vielmehr ein entscheidender Moment, in dem selbst engagierte Tech-Enthusiasten ernsthaft die “Skalierungshypothese” in Frage stellen könnten – die Annahme, dass die bloße Vergrößerung von Modellen unweigerlich zu intelligenterer und fähigerer KI führen wird.