GPT-5 scheitert bei KI-Vereinheitlichung; ChatGPT-Modellauswahl wird komplex
OpenAIs kürzliche Einführung von GPT-5 sollte eine neue Ära der Einfachheit für ChatGPT-Nutzer einläuten, wobei das Unternehmen ein „Einheitslösung“-KI-Modell anpries. Diese ehrgeizige Vision umfasste ein intelligentes Routing-System, das automatisch den optimalen Weg zur Beantwortung von Nutzeranfragen bestimmen sollte, um das komplexe Modellauswahlmenü – eine Funktion, für die OpenAI-CEO Sam Altman selbst öffentlich seine Verachtung geäußert hat – idealerweise überflüssig zu machen. Dieser einheitliche Ansatz hat sich jedoch schnell als schwieriger als erwartet erwiesen.
Nur eine Woche nach dem Debüt von GPT-5 kündigte Altman auf X eine wesentliche Neuausrichtung an und führte eine Modellauswahloberfläche für GPT-5 wieder ein. Nutzer können nun zwischen den Einstellungen „Auto“, „Schnell“ und „Denk“ wählen. Während die „Auto“-Option darauf abzielt, das ursprüngliche Routing-System von GPT-5 zu replizieren, bieten die neuen Modi „Schnell“ und „Denk“ den Nutzern direkte Kontrolle, indem sie es ihnen ermöglichen, den automatisierten Router zu umgehen und Modelle auszuwählen, die jeweils für Geschwindigkeit oder tiefere Verarbeitung optimiert sind. Zum Beispiel kommt das „Denk“-Modell mit einer Ratenbegrenzung von 3.000 Nachrichten pro Woche, mit Optionen für zusätzliche Kapazität.
Um eine weitere Komplexitätsebene hinzuzufügen, hat OpenAI auch den Zugriff auf mehrere ältere KI-Modelle für bezahlte Abonnenten wiederhergestellt, darunter GPT-4o, GPT-4.1 und o3, die nur wenige Tage zuvor ausgemustert worden waren. GPT-4o ist nun eine Standardoption in der überarbeiteten Modellauswahl, wobei andere ältere Modelle aus den ChatGPT-Einstellungen hinzugefügt werden können. Diese schnelle Kehrtwende unterstreicht die Herausforderungen, denen sich OpenAI gegenübersieht, um Innovation mit Nutzererwartungen und -präferenzen in Einklang zu bringen.
Altman räumte diese Herausforderungen ein und bemerkte, dass OpenAI aktiv daran arbeitet, die Persönlichkeit von GPT-5 „wärmer“ zu gestalten und die empfundene „Belästigung“ von GPT-4o zu vermeiden. Im weiteren Sinne betonte er die Notwendigkeit einer größeren pro-Nutzer-Anpassung der Modellpersönlichkeiten, da eine einzelne KI-Persona möglicherweise nicht eine vielfältige Nutzerbasis zufriedenstellen kann. Das schnelle Wiederauftauchen eines vielschichtigen Modellauswahlmenüs deutet darauf hin, dass das automatisierte Routing-System von GPT-5 trotz seines Versprechens nicht universell den Nutzerbedürfnissen entsprochen hat.
Der anfängliche Rollout von GPT-5 war mit hohen Erwartungen verbunden, wobei viele hofften, dass er einen Sprung vergleichbar mit GPT-4 darstellen würde. Doch die Erfahrung war merklich rauer. Die Einstellung beliebter Modelle wie GPT-4o löste erheblichen Nutzerprotest aus und offenbarte eine unerwartete Tiefe der Bindung, die Nutzer zu den spezifischen Antworten und „Persönlichkeiten“ dieser KI-Systeme entwickelt hatten. Als Reaktion darauf hat Altman zugesagt, ausreichend Vorankündigung zu geben, sollte GPT-4o jemals wieder eingestellt werden müssen. Darüber hinaus soll das Routing-System von GPT-5 am Starttag erhebliche Probleme gehabt haben, was einige Nutzer dazu veranlasste, das neue Modell als weniger leistungsfähig als seine Vorgänger zu empfinden. OpenAIs VP von ChatGPT, Nick Turley, äußerte sich auf X zu der Situation: „Wir werden nicht immer alles beim ersten Versuch richtig machen, aber ich bin sehr stolz darauf, wie schnell das Team iterieren kann.“
Die Aufgabe, Prompts intelligent an das am besten geeignete KI-Modell weiterzuleiten, ist von Natur aus schwierig. Sie erfordert sofortige Entscheidungen, die die Fähigkeiten und die Persönlichkeit eines KI-Modells mit den spezifischen Präferenzen eines Nutzers und der Art seiner Anfrage in Einklang bringen. Über die bloße Reaktionsgeschwindigkeit hinaus entwickeln Nutzer oft Präferenzen für Nuancen wie die Ausführlichkeit eines Modells, sein analytischer Ansatz oder sogar seine Bereitschaft, konträre Ansichten anzubieten.
Dieses aufkommende Phänomen der menschlichen Bindung an spezifische KI-Modelle ist ein relativ neuer und noch nicht vollständig verstandener Aspekt der Mensch-KI-Interaktion. In einem bemerkenswerten Beispiel wurde Berichten zufolge in San Francisco ein „Begräbnis“ für Anthropic’s Claude 3.5 Sonnet abgehalten, als es offline genommen wurde, was die emotionalen Bindungen hervorhebt, die einige Individuen zu diesen digitalen Entitäten aufbauen. Während solche Verbindungen harmlos sein können, werfen sie auch Fragen nach potenziell ungesunden Abhängigkeiten oder unvorhergesehenen psychologischen Auswirkungen auf. Letztendlich unterstreichen die jüngsten Ereignisse rund um GPT-5, dass OpenAI noch erhebliche Arbeit vor sich hat, um seine fortschrittlichen KI-Modelle an die vielfältigen und sich entwickelnden Präferenzen seiner Nutzer anzupassen.