Gartner: GPT-5 rückt vor, doch Agenten-KI braucht bessere Infrastruktur
Stellen Sie sich vor, Sie hätten die leistungsstärksten Sportwagen der Welt, aber keine Autobahnen, auf denen Sie sie fahren könnten. Laut Gartner ist dies genau der Punkt, an dem die künstliche Intelligenz heute steht. Während KI-Modelle immer ausgefeilter und leistungsfähiger werden, bleibt die grundlegende Infrastruktur, die erforderlich ist, um ihr volles, reales Potenzial freizusetzen, weitgehend ungebaut. Arun Chandrasekaran, ein angesehener VP-Analyst bei Gartner, vergleicht den aktuellen Zustand damit, ausgezeichnete Automotoren ohne ein funktionsfähiges Autobahnsystem zu haben, was zu einer spürbaren Verlangsamung des Fortschritts der Modellfähigkeiten führt, selbst bei Fortschritten wie OpenAIs GPT-5. Obwohl ein signifikanter Schritt nach vorne, bietet GPT-5 nur schwache Anzeichen einer wirklich autonomen, agentischen KI.
Gartner bestätigt, dass OpenAI mit GPT-5 in mehreren Schlüsselbereichen beachtliche Fortschritte gemacht hat. Das Modell zeigt eine verbesserte Kompetenz bei Codierungsaufgaben, eine strategische Neuausrichtung von OpenAI, um die immensen Chancen im Bereich der Unternehmenssoftwareentwicklung zu nutzen und Wettbewerber wie Anthropic herauszufordern. Darüber hinaus zeigt GPT-5 Fortschritte bei multimodalen Fähigkeiten über Text hinaus, insbesondere bei der Verarbeitung von Sprache und Bildern, was neue Integrationsmöglichkeiten für Unternehmen eröffnet.
Eine bemerkenswerte Weiterentwicklung in GPT-5 ist die verbesserte Werkzeugnutzung, die das Design von KI-Agenten und die Orchestrierung subtil vorantreibt. Das Modell kann jetzt Drittanbieter-APIs und -Tools aufrufen und sogar parallele Tool-Aufrufe durchführen, wodurch mehrere Aufgaben gleichzeitig bewältigt werden können. Dies erfordert jedoch, dass Unternehmenssysteme in der Lage sind, gleichzeitige API-Anfragen innerhalb einer einzigen Sitzung zu verwalten. Die mehrstufige Planung von GPT-5 ermöglicht es auch, komplexere Geschäftslogik direkt im Modell selbst zu hinterlegen, wodurch die Abhängigkeit von externen Workflow-Engines potenziell reduziert wird. Die erweiterten Kontextfenster – 8K für kostenlose Benutzer, 32K für Plus-Abonnenten und beachtliche 128K für Pro-Benutzer – werden voraussichtlich die Architekturmuster von Unternehmens-KI neu gestalten. Dies bedeutet, dass Anwendungen, die zuvor komplexe RAG-Pipelines (Retrieval-Augmented Generation) benötigten, um Kontextgrenzen zu überwinden, nun viel größere Datensätze direkt an Modelle senden können, was bestimmte Workflows vereinfacht. Dennoch ist RAG bei weitem nicht obsolet; das Abrufen nur der relevantesten Daten bleibt schneller und kostengünstiger als immer massive Eingaben zu senden. Gartner erwartet eine Verschiebung hin zu einem Hybridansatz, bei dem Entwickler GPT-5 für größere, weniger strukturierte Kontexte nutzen und gleichzeitig die Effizienz optimieren.
Auf der finanziellen Seite senkt GPT-5 die API-Nutzungsgebühren erheblich, wobei die Top-Tier-Kosten bei 1,25 $ pro Million Eingabe-Tokens und 10 $ pro Million Ausgabe-Tokens liegen, was es mit Modellen wie Gemini 2.5 wettbewerbsfähig macht und Claude Opus deutlich unterbietet. Das Eingabe-/Ausgabe-Preisverhältnis ist jedoch höher als bei früheren Modellen, ein Faktor, den KI-Führungskräfte bei Szenarien mit hohem Token-Verbrauch berücksichtigen sollten.
OpenAI ist strategisch dabei, seine Modellangebote zu konsolidieren, wobei GPT-5 letztendlich GPT-4o und seine o-Serie ersetzen soll. Diese Strategie, teilweise beeinflusst durch Benutzerunzufriedenheit nach anfänglichen Einstellungsversuchen, zielt darauf ab, die Komplexität von den Benutzern zu abstrahieren. Die Einführung von drei Modellgrößen – Pro, Mini und Nano – wird es Architekten ermöglichen, Dienste nach Kosten und Latenz zu staffeln, sodass kleinere Modelle einfache Anfragen bearbeiten und das vollständige Modell komplexe Aufgaben bewältigen kann. Unternehmen, die GPT-5 einführen, sollten sich auf potenzielle Code-Überprüfungen und -Anpassungen aufgrund von Unterschieden in Ausgabeformaten, Speicher und Funktionsaufrufverhalten vorbereiten und bestehende Prompt-Vorlagen überprüfen, da einige Workarounds obsolet werden könnten. Diese Konsolidierung adressiert auch OpenAIs Herausforderungen bei der Rechenkapazität, was Partnerschaften mit großen Cloud-Anbietern wie Microsoft, Oracle und Google erforderlich macht, da der Betrieb mehrerer Modellgenerationen eine entsprechende Infrastruktur erfordert.
GPT-5 führt auch neue Überlegungen hinsichtlich Risiko und Akzeptanz ein. OpenAI behauptet eine Reduzierung der Halluzinationsraten um bis zu 65% im Vergleich zu früheren Modellen, was Compliance-Risiken senken und die Eignung für Unternehmensanwendungsfälle verbessern könnte. Seine Chain-of-Thought (CoT)-Erklärungen unterstützen auch die Auditierbarkeit und die regulatorische Ausrichtung. Umgekehrt könnten diese niedrigeren Halluzinationsraten in Kombination mit den fortschrittlichen Denk- und multimodalen Verarbeitungsfähigkeiten von GPT-5 den Missbrauch verstärken, wie die Generierung ausgeklügelter Betrügereien und Phishing-Versuche. Analysten raten, dass kritische Workflows weiterhin menschlich überprüft werden, wenn auch mit potenziell reduzierter Stichprobenprüfung. Gartner empfiehlt Unternehmensführern, GPT-5 in geschäftskritischen Szenarien zu testen und zu benchmarken und Side-by-Side-Bewertungen mit anderen Modellen durchzuführen, um Genauigkeit, Geschwindigkeit und Benutzererfahrung zu beurteilen. Sie raten auch zur Überarbeitung von Governance-Richtlinien, zum Experimentieren mit Tool-Integrationen und Denkparametern sowie zur Überprüfung von Infrastrukturplänen zur Unterstützung der erweiterten Fähigkeiten von GPT-5.
Obwohl agentische KI ein „superheißes Thema“ und ein Top-Investitionsbereich in Gartners Hype Cycle für Generative KI 2025 ist, hat sie den „Gipfel der überzogenen Erwartungen“ erreicht. Diese Phase, gekennzeichnet durch weitreichende Publicity und unrealistische Erwartungen aus frühen Erfolgen, geht typischerweise dem „Tal der Enttäuschung“ voraus, wo Interesse und Investitionen nachlassen, da Implementierungen übertriebene Versprechen nicht einlösen. Viele Anbieter verkaufen derzeit Produkte als produktionsreif für agentische Bereitstellungen über, doch in Wirklichkeit bleibt die unternehmensweite Akzeptanz gering. Aktuelle Bereitstellungen sind auf enge Bereiche wie Softwareentwicklung oder Beschaffung beschränkt, und selbst diese sind oft menschlich gesteuert oder teilautonom.
Ein wesentliches Hindernis für echte agentische KI ist das Fehlen einer robusten Infrastruktur. Agenten benötigen nahtlosen Zugriff auf eine breite Palette von Unternehmens-Tools, die Fähigkeit zur Kommunikation mit verschiedenen Datenspeichern und SaaS-Anwendungen sowie robuste Identitäts- und Zugriffsverwaltungssysteme, um ihr Verhalten und ihren Datenzugriff zu steuern. Entscheidend ist, dass Unternehmen der Vertrauenswürdigkeit von agentengenerierten Informationen sicher sein müssen und gewährleisten, dass diese frei von Voreingenommenheit, Halluzinationen oder falschen Daten sind. Um diese Lücke zu schließen, müssen Anbieter zusammenarbeiten und offenere Standards für die Agent-zu-Unternehmen- und Agent-zu-Agent-Tool-Kommunikation einführen. Während die zugrunde liegenden KI-Technologien Fortschritte machen, befinden sich die wesentlichen Orchestrierungs-, Governance- und Datenschichten, die für das Gedeihen von Agenten unerlässlich sind, noch in der Entwicklung, was im aktuellen Umfeld zu erheblichen Reibungen führt. Während die KI Fortschritte im Bereich des Denkens macht, operiert sie größtenteils im digitalen Bereich und hat trotz kontinuierlicher Verbesserungen in der Weltraumrobotik immer noch Schwierigkeiten, die physische Welt zu verstehen.
Letztendlich ist die Branche trotz der signifikanten Fortschritte bei GPT-5 noch weit davon entfernt, Künstliche Allgemeine Intelligenz (AGI) zu erreichen – das ultimative Ziel, das OpenAI für sich selbst definiert hat. Echter Fortschritt in Richtung AGI, so Experten, wird wahrscheinlich eine grundlegende Revolution in der Modellarchitektur oder dem Denken erfordern, die über das bloße Skalieren von Daten und Rechenleistung hinausgeht.