OpenAI: GPT-4o wieder Standard, GPT-5-Zugang angepasst
OpenAI hat GPT-4o als Standard-Sprachmodell (LLM) für alle zahlenden ChatGPT-Abonnenten wiederhergestellt. Diese Entscheidung kehrt eine kürzliche Änderung nach dem Debüt von GPT-5 um. Diese Änderung betrifft Nutzer aller ChatGPT Plus-, Pro-, Team-, Enterprise- und Edu-Stufen, die nicht mehr eine Einstellung „veraltete Modelle anzeigen“ navigieren müssen, um auf GPT-4o zuzugreifen. Die Ankündigung, die von OpenAI-CEO und Mitbegründer Sam Altman gemacht wurde, enthielt auch das Versprechen, dass Nutzer „reichlich Vorlaufzeit“ erhalten, sollte GPT-4o jemals wieder entfernt werden.
Diese Umkehrung folgt auf eine herausfordernde erste Woche für GPT-5, das am 7. August in vier Varianten eingeführt wurde: regulär, mini, nano und pro. Das neue Flaggschiff-Modell, das GPT-4o ablösen sollte, stieß auf gemischte Reaktionen und erhebliche Infrastrukturprobleme. Frühe Anwender berichteten von einem dysfunktionalen „Autoschalter“, der Prompts falsch weiterleitete, inkonsistenter Leistung im Vergleich zum scheidenden GPT-4o und weit verbreiteter Frustration über die plötzliche Veraltung bekannter älterer Modelle.
Mit dem neuesten Update finden zahlende ChatGPT-Abonnenten GPT-4o nun automatisch als ihr primäres Modell ausgewählt. Darüber hinaus wird eine neue Einstellung „Zusätzliche Modelle anzeigen“ standardmäßig aktiviert, die den direkten Zugriff auf GPT-4.1 sowie die auf Argumentation fokussierten LLMs o3 und o4-mini wiederherstellt. Alle diese Modelloptionen sind bequem im „Auswahl“-Menü zu finden, das am oberen Rand des ChatGPT-Sitzungsbildschirms über Web, Mobilgeräte und andere Anwendungen zugänglich ist.
Über die Wiederherstellung von GPT-4o hinaus detaillierte Altmans Ankündigung neue Steuerelemente für GPT-5 selbst. Nutzer können nun zwischen den Modi „Auto“, „Schnell“ und „Denken“ für das neueste Modell wählen. Der „Denken“-Modus, der für umfangreichere und denkintensive Aufgaben konzipiert ist, verfügt über ein beträchtliches Kontextfenster von 196.000 Tokens. Dieser leistungsstarke Modus unterliegt jedoch einer Begrenzung von 3.000 Nachrichten pro Woche für zahlende Abonnenten. Sobald dieses Limit erreicht ist, können Nutzer ihre Arbeit im leichteren Modus „GPT-5 Denken mini“ fortsetzen. Altman wies darauf hin, dass diese Nutzungslimits je nach Entwicklung der Nutzungstrends Änderungen unterliegen können. Es ist erwähnenswert, dass GPT-4.5, ein weiteres fortschrittliches Modell, ausschließlich Pro-Nutzern zur Verfügung steht, hauptsächlich aufgrund seiner erheblichen GPU-Verarbeitungsanforderungen.
Blickend in die Zukunft deutete Altman auch weitere Verfeinerungen für GPT-5 an, einschließlich einer geplanten „Persönlichkeitsanpassung“. Ziel ist es, das Modell „wärmer“ wirken zu lassen als seine aktuelle Standardeinstellung, während gleichzeitig der polarisierende Ton vermieden wird, den einige Nutzer mit GPT-4o in Verbindung brachten. Langfristig erforscht OpenAI die Implementierung von benutzerspezifischen Anpassungsoptionen. Dieser strategische Schritt könnte die tiefen emotionalen Bindungen und starken Präferenzen ansprechen, die viele Nutzer für bestimmte KI-Modelle entwickelt haben – ein Phänomen, das mit der schnellen Entwicklung dieser Technologien immer offensichtlicher geworden ist.
Diese sofortigen Änderungen sollen einen Teil der Nutzerbasis besänftigen, der sich durch den abrupten Übergang zu GPT-5 und die Entfernung ihrer bevorzugten, älteren LLMs entfremdet fühlte. Die schnelle Abfolge der Modelländerungen und die Reaktionsfähigkeit des Unternehmens auf die Nutzerstimmung unterstreichen jedoch auch die komplexe, fast persönliche Beziehung, die viele Nutzer zu diesen fortschrittlichen KI-Systemen aufbauen, was möglicherweise sogar noch stärkere emotionale Fixierungen auf bestimmte Iterationen fördert.