GPT-5s AGI-Ansprüche hinterfragt: Hat KI ihr Plateau erreicht?

Theconversation

OpenAIs neuestes Flaggschiffmodell, GPT-5, wird vom Unternehmen als „bedeutender Schritt“ in Richtung Künstliche Allgemeine Intelligenz (AGI) gefeiert – ein hypothetischer Zustand, in dem KI-Systeme den Menschen in den meisten wirtschaftlich wertvollen Aufgaben autonom übertreffen. Doch trotz dieser großen Behauptungen sind die Beschreibungen von OpenAI-CEO Sam Altman zu den Fortschritten von GPT-5 bemerkenswert zurückhaltend. Er hebt Verbesserungen bei der Kodierfähigkeit, eine Reduzierung von „Halluzinationen“ (bei denen die KI falsche Informationen generiert) und eine bessere Einhaltung mehrstufiger Anweisungen hervor, insbesondere bei der Integration mit anderer Software. Das Modell ist Berichten zufolge auch sicherer und weniger „speichelleckerisch“, so dass es nicht täuschen oder schädliche Informationen liefern soll, nur um dem Benutzer zu gefallen.

Altman deutet an, dass die Interaktion mit GPT-5 dem Gespräch mit einem Experten auf PhD-Niveau zu einem beliebigen Thema gleicht. Diese Behauptung wird jedoch sofort durch die grundlegende Unfähigkeit des Modells eingeschränkt, die Genauigkeit seiner eigenen Ausgabe festzustellen. Zum Beispiel hat es Schwierigkeiten bei grundlegenden Aufgaben wie dem genauen Zeichnen einer Landkarte von Nordamerika. Darüber hinaus kann GPT-5 nicht aus eigenen Erfahrungen lernen und erreichte nur 42 % Genauigkeit beim „Letzten Examen der Menschheit“, einem anspruchsvollen Benchmark, der verschiedene wissenschaftliche und akademische Themen abdeckt. Diese Leistung liegt leicht hinter Grok 4, einem Konkurrenzmodell von Elon Musks xAI, das Berichten zufolge 44 % erreichte.

Die primäre technische Innovation, die GPT-5 zugrunde liegt, scheint die Einführung eines „Routers“ zu sein. Diese Komponente entscheidet intelligent, welches interne GPT-Modell bei der Beantwortung einer Abfrage eingesetzt werden soll, bestimmt im Wesentlichen den für eine Antwort erforderlichen Rechenaufwand und verfeinert diesen Prozess basierend auf dem Feedback früherer Entscheidungen. Der Router kann an frühere führende GPT-Modelle oder an ein neues, dediziertes Modell für „tieferes Denken“ namens GPT-5 Thinking delegieren. Die genaue Natur dieses neuen Modells bleibt unklar, da OpenAI nicht angegeben hat, dass es auf neuartigen Algorithmen oder neuen Datensätzen basiert, da die meisten verfügbaren Daten bereits ausgiebig genutzt wurden. Dies führt zu Spekulationen, dass GPT-5 Thinking einfach ein ausgeklügelter Mechanismus sein könnte, um bestehende Modelle mehrmals anzustoßen und sie so stärker zu besseren Ergebnissen zu drängen.

Die Grundlage der heutigen leistungsstarken KI-Systeme liegt in Großen Sprachmodellen (LLMs), einer Art von KI-Architektur, die 2017 von Google-Forschern entwickelt wurde. Diese Modelle zeichnen sich durch die Identifizierung komplexer Muster innerhalb riesiger Wortsequenzen aus, die das Fundament der menschlichen Sprache bilden. Durch das Training an immensen Textmengen lernen LLMs, die wahrscheinlichste Fortsetzung einer gegebenen Wortsequenz vorherzusagen, was es ihnen ermöglicht, kohärente und kontextuell relevante Antworten auf Benutzeranfragen zu generieren. Dieser Ansatz, beispielhaft durch Systeme wie ChatGPT, hat sich stetig verbessert, da LLMs immer größeren Datensätzen ausgesetzt werden. Grundsätzlich funktionieren diese Modelle wie eine komplizierte Nachschlagetabelle, die den Stimulus eines Benutzers (Prompt) der am besten geeigneten Antwort zuordnet. Es ist bemerkenswert, dass ein so scheinbar einfaches Konzept es LLMs ermöglicht hat, viele andere KI-Systeme in Bezug auf Flexibilität und Benutzerfreundlichkeit zu übertreffen, wenn auch nicht immer in absoluter Genauigkeit oder Zuverlässigkeit.

Trotz ihrer beeindruckenden Fähigkeiten ist noch nicht entschieden, ob LLMs wirklich AGI erreichen können. Kritiker hinterfragen ihre Fähigkeit zum echten Schlussfolgern, ihre Fähigkeit, die Welt auf menschenähnliche Weise zu verstehen, oder ihre Fähigkeit, aus Erfahrungen zu lernen, um ihr eigenes Verhalten zu verfeinern – allesamt weithin als wesentliche Bestandteile für AGI angesehen. In der Zwischenzeit ist eine florierende Industrie von KI-Softwareunternehmen entstanden, die sich der „Zähmung“ allgemeiner LLMs widmen, um sie für spezifische Anwendungen zuverlässiger und vorhersehbarer zu machen. Diese Unternehmen verwenden oft ausgeklügelte Prompt-Engineering-Techniken, fragen Modelle manchmal mehrmals ab oder nutzen sogar zahlreiche LLMs gleichzeitig, wobei sie Anweisungen anpassen, bis das gewünschte Ergebnis erreicht ist. In einigen Fällen „feinabstimmen“ sie LLMs mit speziellen Add-ons, um deren Effektivität zu verbessern.

OpenAIs neuer Router, der direkt in GPT-5 integriert ist, stimmt mit diesem Branchentrend überein. Wenn erfolgreich, könnte diese interne Optimierung den Bedarf an externen KI-Ingenieuren weiter unten in der Lieferkette reduzieren und GPT-5 potenziell kostengünstiger für Benutzer machen, indem es bessere Ergebnisse ohne zusätzliche Verzierungen liefert. Dieser strategische Schritt könnte jedoch auch als implizites Eingeständnis angesehen werden, dass LLMs ein Plateau in ihrer Fähigkeit erreichen, das Versprechen von AGI zu erfüllen. Wenn wahr, würde dies die Argumente von Wissenschaftlern und Branchenexperten bestätigen, die seit langem behaupten, dass aktuelle KI-Einschränkungen ohne das Überschreiten bestehender LLM-Architekturen nicht überwunden werden können.

Die Betonung des Routings spiegelt auch ein Konzept wider, das als „Meta-Reasoning“ bekannt ist und in den 1990er Jahren in der KI an Bedeutung gewann. Dieses Paradigma konzentrierte sich auf die Idee des „Denkens über das Denken“ – zum Beispiel die Entscheidung, wie viel Rechenaufwand es wert ist, in die Optimierung einer komplexen Aufgabe zu investieren. Dieser Ansatz, der sich auf die Aufteilung von Problemen in kleinere, spezialisierte Komponenten konzentrierte, war dominant vor dem Übergang zu allgemeinen LLMs.

Die Veröffentlichung von GPT-5, mit ihrem Fokus auf interne Delegation statt bahnbrechender neuer Algorithmen, könnte einen bedeutenden Wendepunkt in der KI-Evolution markieren. Während es möglicherweise keine vollständige Rückkehr zu älteren Paradigmen signalisiert, könnte es eine Ära einläuten, in der das unermüdliche Streben nach immer komplexeren und undurchschaubareren Modellen einem Fokus auf die Schaffung von KI-Systemen weicht, die durch rigorose Ingenieurmethoden besser kontrollierbar sind. Letztendlich könnte diese Verschiebung als starke Erinnerung daran dienen, dass die ursprüngliche Vision für künstliche Intelligenz nicht nur darin bestand, menschliche Intelligenz zu replizieren, sondern auch unser Verständnis davon zu vertiefen.