Altman reagiert auf GPT-5-Kritik: Nutzerkontrolle & Fixes versprochen

Decoder

Die jüngste Einführung von GPT-5 durch OpenAI stieß auf gemischte Reaktionen, was CEO Sam Altman dazu veranlasste, auf Nutzerbedenken einzugehen und die sofortigen sowie zukünftigen Pläne des Unternehmens darzulegen. Obwohl Altman behauptet, GPT-5 sei „in den meisten Punkten besser“, bleibt ein erheblicher Teil der Nutzerbasis gespalten, wobei viele eine Präferenz für das Verhalten des vorherigen GPT-4o-Modells äußern. OpenAI hat dieses unerwartete Feedback zur Kenntnis genommen und den Zugang zu GPT-4o wiederhergestellt, wobei das Unternehmen zugibt, die anfängliche Nachfrage nach seinem Vorgänger falsch eingeschätzt zu haben.

Mit Blick auf die Zukunft deutete Altman an, dass OpenAI beabsichtigt, den Nutzern mehr Kontrolle darüber zu geben, wie sich seine Modelle verhalten, da keine einzelne Konfiguration perfekt für jeden geeignet sein wird. Die unmittelbare Priorität besteht darin, die laufende Einführung zu stabilisieren und die Systemleistung zu verbessern. Nach diesen kurzfristigen Korrekturen strebt das Unternehmen an, das Modell „wärmer“ und ansprechender zu gestalten, wobei umfassende Personalisierungstools für eine spätere Veröffentlichung vorgesehen sind.

Die Einführung war nicht ohne technische Hürden. OpenAI bestätigte, dass GPT-5 nun vollständig über alle Nutzerebenen hinweg implementiert ist, einschließlich Plus-, Pro-, Team- und kostenlosen Konten. Der anfängliche Start hatte jedoch erhebliche Probleme, insbesondere mit einem automatischen Modellwechsler, der die optimale GPT-5-Variante für jede Eingabeaufforderung auswählen sollte. Dieses System, erklärte Altman über X, führte dazu, dass das Modell zeitweise „viel dümmer“ erschien, was zu Frustration bei den Nutzern führte. Das Unternehmen verfeinert aktiv diese Routing-Strategie, um zuverlässigere Übereinstimmungen zwischen Aufgaben und Modellen zu erzielen.

Um unmittelbare Bedenken zu mildern und die steigende Nachfrage zu bewältigen – der API-Verkehr soll sich innerhalb von 24 Stunden nach dem Start verdoppelt haben – hat OpenAI die Nutzungslimits für Plus- und Team-Abonnenten über das Wochenende verdoppelt. Darüber hinaus werden ab nächster Woche Mini-Versionen von GPT-5 und GPT-5 Thinking automatisch für Nutzer aktiviert, die ihre Nachrichtengrenzen erreichen, und bleiben aktiv, bis die Limits zurückgesetzt werden. Sowohl GPT-5 Thinking als auch GPT-5 Pro können nun direkt in der Hauptmodelloberfläche ausgewählt werden. Altman warnte auch vor einer bevorstehenden „massiven Kapazitätsengpass“, der nächste Woche erwartet wird, und versicherte den Nutzern, dass OpenAI seine Infrastruktur optimiert und transparent über alle notwendigen Kompromisse sein wird.

Diese Anpassungen signalisieren eine Abkehr von OpenAIs früherer Neigung zur vollautomatischen Modellführung. Während die Automatisierung die Erfahrung für neue Nutzer vereinfacht, kann sie zu weniger zuverlässigen Antworten oder dem Einsatz eines ungeeigneten Modells führen, was zur inhärenten Unvorhersehbarkeit der Ausgaben großer Sprachmodelle beiträgt. Als Reaktion darauf plant OpenAI, den Nutzern klarer zu machen, welches Modell aktiv ist, und eine Option zur manuellen Aktivierung des „Thinking“-Modus über die Oberfläche einzuführen, obwohl ein Zeitplan für diese Funktionen noch nicht bereitgestellt wurde. Für diejenigen, die ältere ChatGPT-Modelle verwenden möchten, kann der Zugriff auf „Legacy“-Versionen, einschließlich GPT-4o, über die Einstellungen der Plattform aktiviert werden.

Die fortlaufende Entwicklung von GPT-5 spiegelt OpenAIs Echtzeit-Anpassung an Nutzerfeedback und die komplexen Realitäten der Bereitstellung fortschrittlicher KI in großem Maßstab wider, um eine stabilere, anpassbarere und letztendlich intelligentere Nutzererfahrung zu erzielen.