OpenAI CEO: KI-Potenzial wird massiv unterschätzt
Die Einführung von GPT-5 durch OpenAI am 7. August wurde vom Unternehmen als monumentaler Sprung nach vorn angekündigt, dem Wochen intensiver Hype und eine ausgefeilte Live-Präsentation seiner Fähigkeiten vorausgingen. Doch die öffentliche Reaktion war auffallend verhalten, geprägt von Verwirrung und Frustration über die Entfernung mehrerer vertrauter Chatbot-Modelle, auf die sich die Nutzer verlassen hatten.
Im Nachhinein beleuchtete OpenAI-CEO Sam Altman unbeabsichtigt die krasse Diskrepanz zwischen den hohen Erwartungen des Unternehmens an GPT-5 und der Realität seiner Rezeption. Es scheint, dass eine beträchtliche Mehrheit der Nutzer künstliche Intelligenz nicht voll ausschöpft. In einem kürzlichen Social-Media-Beitrag, der Bedenken von zahlenden Plus-Abonnenten – die monatlich 20 US-Dollar für erweiterten Zugang zahlen – bezüglich drastischer Reduzierungen ihrer Chatbot-Nutzungsgrenzen ansprach, enthüllte Altman eine überraschende Statistik: Vor der Veröffentlichung von GPT-5 nutzten nur 1 % der nicht zahlenden Nutzer und lediglich 7 % der zahlenden Nutzer ein „Denkmodell“ wie o3.
Denkmodelle sind darauf ausgelegt, Probleme „durchzudenken“, bevor sie eine Antwort formulieren, und dabei einen bewussteren Prozess einzuleiten. Es ist zwar entscheidend zu bedenken, dass KI-Modelle keine menschenähnliche Kognition oder Bewusstsein besitzen, doch diese interne „Überlegung“ unterscheidet sie. Das Versäumnis, diese fortschrittlichen Modi zu nutzen, wie es die überwiegende Mehrheit der Nutzer tat, ist vergleichbar mit dem Kauf eines Hochleistungsfahrzeugs, das man nur im niedrigsten Gang fährt, und sich dann fragt, warum die Fahrt so ineffizient ist. Es ist wie ein Quizshow-Kandidat, der die erste Antwort, die ihm in den Sinn kommt, herausplatzt, anstatt innezuhalten, um die beste Antwort zu überlegen.
Viele Nutzer priorisieren offensichtlich sofortige Geschwindigkeit und Bequemlichkeit gegenüber der Tiefe und Qualität von KI-Chatbot-Interaktionen. Diese Präferenz zeigte sich im weit verbreiteten Klagen nach der anfänglichen Entfernung von GPT-4o, einem früheren Modell, das nach erheblichem öffentlichen Druck später zahlenden ChatGPT-Nutzern wieder zur Verfügung gestellt wurde. Wenn man jedoch zuverlässige Informationen oder kreative Lösungen von einem Chatbot sucht, ist eine geringfügig langsamere, aber genaue Antwort fast immer einer schnellen, aber potenziell falschen vorzuziehen.
Diese „Denk“-Modelle erfordern von Natur aus mehr Rechenaufwand, da sie intern planen, prüfen und iterieren, bevor sie eine Ausgabe generieren. Diese zusätzliche Überlegung verbessert die Ergebnisse für Aufgaben, die präzise Logik erfordern, erheblich. Diese Gründlichkeit hat jedoch ihren Preis, sowohl in Bezug auf die Verarbeitungszeit als auch auf die Rechenressourcen. Folglich stellen KI-Anbieter oft standardmäßig schnellere, weniger „nachdenkliche“ Versionen bereit, die von den Nutzern erfordern, über Dropdown-Menüs aktiv fähigere Alternativen auszuwählen. OpenAIs historisch komplexe Modell-Namenskonventionen verschärften dieses Problem zusätzlich, obwohl GPT-5 darauf abzielte, es zu vereinfachen, was nicht vollständig gelang. Nutzer haben immer noch Schwierigkeiten, leicht zu erkennen, ob sie auf die anspruchsvollere, „denkfähige“ Version von GPT-5 oder eine weniger leistungsfähige Iteration zugreifen, ein Problem, das OpenAI Berichten zufolge nach Nutzerfeedback nun angeht.
Selbst nach der Einführung von GPT-5, die die Unterscheidung zwischen dem Flaggschiff-Modell und seiner „denkenden“ Variante (die „gründlichere Antworten“ verspricht) deutlicher machte, entscheiden sich derzeit nur einer von vier zahlenden Nutzern für diese verbesserte Gründlichkeit. Diese Beobachtung liefert eine überzeugende Antwort auf eine verwirrende Frage zur KI-Akzeptanz: Warum beschreiben nur etwa ein Drittel der Amerikaner, die einen Chatbot verwendet haben, diesen als „extrem“ oder „sehr nützlich“ (die Hälfte der Rate unter KI-Experten), während ein Fünftel ihn als „überhaupt nicht nützlich“ (doppelt so hoch wie die Expertenrate) empfindet? Die Daten deuten auf ein klares Muster hin: Viele Einzelpersonen nutzen KI einfach nicht voll aus. Sie beauftragen anspruchsvolle Chatbots mit komplexen, mehrteiligen Fragen, ohne die internen Prozesse zu aktivieren, die darauf ausgelegt sind, solche Herausforderungen effektiv zu bewältigen. Für diejenigen, die einen Chatbot in Betracht ziehen oder weiterhin nutzen, ist es entscheidend, OpenAIs jüngste Bemühungen zu nutzen, den Zugang zu seinen leistungsfähigeren Modellen zu erweitern. Das Aktivieren dieser „Denk“-Modi – wobei zu bedenken ist, dass das „Denken“ der KI algorithmisch und nicht menschlich ist – kann den Nutzen und die Zuverlässigkeit generativer KI grundlegend verändern und Skeptiker möglicherweise zu Befürwortern machen.