GPT-5: OpenAIs neues Modell entfacht Debatte über einheitliche KI

Marketingaiinstitute

OpenAI hat gerade GPT-5 vorgestellt und preist es als das bisher intelligenteste, schnellste und vielseitigste Modell an. Auf dem Papier stellt dies einen bedeutenden Fortschritt in Schlüsselbereichen wie Codierung, Schreiben, Gesundheitsberatung und multimodalem Denken dar. In der Praxis hat sich die Einführung jedoch als unerwartet kontrovers erwiesen.

GPT-5 markiert das erste Mal, dass OpenAI mehrere Fähigkeiten in ein sogenanntes „einheitliches“ System integriert hat. Diese innovative Architektur ermöglicht es dem Modell, intelligent zu erkennen, wann schnelle Antworten Priorität haben und wann ein tieferes, komplexeres Denken erforderlich ist. OpenAI behauptet, dass GPT-5 frühere Iterationen in seinen Kernfunktionen übertrifft, eine erhebliche Reduzierung von „Halluzinationen“ – der Generierung ungenauer oder unsinniger Informationen – und ein erweitertes Kontextfenster, das bis zu 400.000 Tokens verarbeiten kann, aufweist. Darüber hinaus ist das Modell weithin zugänglich: Kostenlose Nutzer erhalten GPT-5 automatisch als Standard, während Plus- und Pro-Abonnenten von höheren Nutzungslimits und Zugang zu GPT-5 Pro, einer noch fortschrittlicheren Variante, profitieren.

Trotz dieser beeindruckenden technischen Fähigkeiten stieß die Einführung von GPT-5 auf erhebliche Kritik von Nutzern, die erhebliche Fehltritte in OpenAIs Einführungsstrategie sehen. Branchenanalysten haben mehrere wichtige Streitpunkte hervorgehoben und die Komplexität des Einsatzes solch fortschrittlicher KI-Systeme unterstrichen.

Ein Hauptstreitpunkt dreht sich um die Natur des „einheitlichen“ Systems von GPT-5. Obwohl es als eine einzige Einheit präsentiert wird, ist GPT-5 tatsächlich ein intelligentes Routing-System, das Benutzeranfragen nahtlos an mehrere zugrunde liegende Modelle weiterleitet. Für Aufgaben, die Geschwindigkeit erfordern, greift es auf ein schnelleres, aber immer noch sehr leistungsfähiges Modell zurück. Für komplexe, langformatige Denkprozesse wechselt es hingegen zu einer leistungsstärkeren „Denk“-Variante. OpenAI behauptet, dass dieser Router kontinuierlich aus dem Nutzerverhalten lernt, um das optimale Werkzeug für jede Aufgabe auszuwählen, was die Erfahrung für Gelegenheitsnutzer vereinfacht, die sich nicht mehr durch ein verwirrendes Menü von Modelloptionen navigieren müssen. Diese Vereinfachung wurde jedoch zu einer erheblichen Quelle der Nutzerfrustration.

Bis vor Kurzem hatten ChatGPT-Nutzer die Freiheit, manuell spezifische Modelle für verschiedene Aufgaben auszuwählen – zum Beispiel ein bestimmtes Modell für tiefgehendes Denken oder ein anderes für einen gesprächigeren Ton. Mit dem Debüt von GPT-5 entfernte OpenAI diese granularen Optionen und überließ dem Router alle Entscheidungen ohne Nutzeraufsicht oder sogar klare Angabe, welches Modell aktiv war. Während dieser Ansatz für alltägliche Nutzer bequem sein mag, löste er eine schnelle und intensive Gegenreaktion bei Power-Usern aus, die die Kontrolle und Vorhersagbarkeit schätzten, die die manuelle Modellauswahl bot. Der Aufruhr war so ausgeprägt, dass OpenAI-CEO Sam Altman den Fehler schnell eingestand und eine überraschende Entdeckung feststellte: Einige Nutzer hatten intensive emotionale Bindungen zu bestimmten KI-Modellen, wie GPT-4o, entwickelt. Tatsächlich waren Online-Foren Berichten zufolge gefüllt mit Nutzern, die ein Gefühl des Verlusts ausdrückten und die Abschaffung älterer Modelle wie das Ableben eines engen Freundes, Therapeuten oder kreativen Partners behandelten. Als Reaktion auf diesen Aufschrei unternahm OpenAI umgehend Schritte, um einige seiner anfänglichen Einführungsentscheidungen rückgängig zu machen.

Ein weiterer signifikanter Streitpunkt entstand mit der stillen Einführung neuer Ratenbegrenzungen. Denkmodelle erfordern naturgemäß wesentlich mehr Rechenleistung. OpenAI führte wöchentliche Obergrenzen ein, die Plus-Abonnenten auf etwa 200 Denk-Nachrichten beschränkten, oft ohne vorherige Benachrichtigung. Viele Nutzer entdeckten diese Grenzen erst mitten im Gespräch, was zu Frustration führte. Diese Kapazitätsbeschränkung resultiert aus einem massiven Anstieg der Denk-Nutzung nach dem GPT-5-Start. Vor GPT-5 nutzten weniger als 1 % der kostenlosen Nutzer und 7 % der Plus-Nutzer Denkmodelle. Nach dem Start stiegen diese Zahlen auf 7 % bzw. 24 %, was insgesamt einen enormen Anstieg des Rechenbedarfs darstellt. Laut einem Analysten könnte diese Lücke in der Infrastrukturreife eine strategische Öffnung für Rivalen wie Google darstellen, das über eine unvergleichliche KI-Infrastruktur, Rechenzentren und Rechenressourcen verfügt.

In Bezug auf die reine Intelligenz wurde die Leistung von GPT-5 an hohen Erwartungen gemessen. Als GPT-4 im März 2023 startete, hielt es über ein Jahr lang einen deutlichen Vorsprung vor den Konkurrenten. Viele erwarteten, dass GPT-5 einen solch entscheidenden Vorteil wiederherstellen würde. Während Benchmarks tatsächlich starke Verbesserungen zeigen, insbesondere beim Codieren, der Gesundheitsberatung und der Reduzierung von Halluzinationen, scheint es keine einzigartige „Geheimwaffe“ zu geben, die es definitiv weit vor die Konkurrenz stellt. Doch dies mag die wahrgenommene Wirkung für viele nicht schmälern. GPT-5 ist zweifellos beeindruckend: Es ist intelligent, schnell und sehr leistungsfähig. Angesichts der Tatsache, dass die überwiegende Mehrheit der ChatGPT-Nutzer zuvor keine Denkmodelle genutzt hatte, könnte die automatische Integration dieser Fähigkeiten durch GPT-5 in ihren Arbeitsablauf immer noch wie ein monumentaler Fortschritt wirken, auch wenn es nicht den lebensverändernden Durchbruch darstellt, den einige seit über einem Jahr erwartet hatten.