GPT-5 intelligenter: OpenAI behebt Modellwechsler-Probleme

Decoder

OpenAI geht aktiv die anfänglichen Bereitstellungsherausforderungen mit seinem neuesten großen Sprachmodell, GPT-5, an, um sofortige Verbesserungen der Kapazität, Qualität und Benutzeroberfläche des Modells zu erzielen. Der CEO des Unternehmens, Sam Altman, bestätigte kürzlich via X, dass ChatGPT Plus-Abonnenten ihre GPT-5-Nachrichtenlimits bald verdoppelt sehen werden, sobald der laufende Rollout abgeschlossen ist. Dieser Schritt ist Teil einer umfassenderen Anstrengung, die Benutzererfahrung zu verfeinern, während Plus-Benutzer weiterhin auf das vorherige GPT-4o-Modell zugreifen können. OpenAI überwacht dessen Nutzung, um zukünftige Verfügbarkeitsentscheidungen zu treffen.

Derzeit sind ChatGPT Plus-Nutzer auf 100 Nachrichten alle drei Stunden begrenzt, wobei das System automatisch auf ein kleineres Modell zurückgreift, wenn dieses Limit erreicht wird. Die spezialisierte GPT-5-Thinking-Variante, die für komplexere Aufgaben entwickelt wurde, hat eine eigene wöchentliche Obergrenze von 200 Nachrichten, wobei der Wechsel zwischen dem Standard-GPT-5 und GPT-5-Thinking nicht zu dieser wöchentlichen Gesamtzahl beiträgt. Altmans Ankündigung deutet darauf hin, dass Benutzer eine sofortige Leistungssteigerung wahrnehmen sollten, wobei GPT-5 voraussichtlich “ab heute intelligenter wirken wird”. Er führte frühere Inkonsistenzen, die das Modell gelegentlich “viel dümmer” erscheinen ließen, auf anfängliche Probleme mit dem Kern-Automatik-Modellwechsler zurück – dem System, das für die Auswahl der geeigneten GPT-5-Variante für jede Benutzeranfrage verantwortlich ist.

Der umfassende Rollout für alle Benutzer hat sich als komplizierter und zeitaufwendiger erwiesen, als OpenAI ursprünglich angenommen hatte. Altman charakterisierte ihn als “massive Veränderung in großem Maßstab” und hob hervor, dass der API-Verkehr innerhalb der vorhergehenden 24 Stunden ungefähr verdoppelt hatte. Obwohl aufgrund der gleichzeitigen Implementierung zahlreicher Änderungen mit gewissen betrieblichen Reibungen gerechnet wurde, räumte Altman ein, dass die Startphase “etwas holpriger” war, als das Unternehmen gehofft hatte.

Über sofortige Korrekturen hinaus verfeinert OpenAI auch seine zugrunde liegende Modell-Routing-Strategie, die bestimmt, wie Prompts bestimmten Modellen zugewiesen werden. Ziel ist es, eine zuverlässigere Übereinstimmung zwischen der Benutzeranfrage und dem am besten geeigneten Modell sicherzustellen. Altman deutete auch zukünftige Pläne an, die Transparenz zu verbessern, indem den Benutzern klarer gemacht wird, welches Modell derzeit aktiv ist. Darüber hinaus könnten Benutzer schließlich die Möglichkeit erhalten, den “Thinking”-Modus direkt über die Benutzeroberfläche manuell zu aktivieren, obwohl ein Zeitplan für diese Funktionen nicht angegeben wurde.

Diese strategischen Anpassungen signalisieren eine mögliche Abkehr von OpenAIs früherem Schwerpunkt auf vollständig automatisiertem Modell-Routing. Während automatisiertes Routing die Erfahrung für neue Benutzer vereinfacht, die Modelle nicht manuell auswählen möchten, kann es unbeabsichtigt zu weniger zuverlässigen Antworten oder dem Einsatz eines ungeeigneten Modells für eine bestimmte Aufgabe führen, was den ohnehin schon komplexen Ausgaben großer Sprachmodelle eine weitere Ebene der Unvorhersehbarkeit hinzufügt. Für Benutzer, die mehr Kontrolle bevorzugen, hat OpenAI eine Option beibehalten, den Zugriff auf “Legacy”-Modelle über die ChatGPT-Einstellungen zu ermöglichen, die dann unter “Andere Modelle” erscheinen. Die fortgeschritteneren GPT-5 “Thinking”- und “Pro”-Varianten bleiben jedoch ausschließlich über ein Pro-Konto zugänglich.