OpenAI CEO: Nutzer schöpfen KI-Potenzial nicht aus

Fastcompany

Als OpenAI am 7. August GPT-5 vorstellte, feierte das Unternehmen seine neueste Iteration von ChatGPT als bahnbrechende Errungenschaft, nach Wochen intensiver Erwartung und einer hochkarätigen Live-Demonstration. Doch die öffentliche Reaktion war merklich verhalten, geprägt von Verwirrung und Frustration über die plötzliche Entfernung mehrerer beliebter älterer Modelle. Im Nachhinein beleuchtete OpenAI-CEO Sam Altman versehentlich die deutliche Diskrepanz zwischen den hohen Erwartungen des Unternehmens an die Aufnahme von GPT-5 und der gedämpfteren Realität: Eine überwiegende Mehrheit der Nutzer, so stellte sich heraus, schöpft die vollen Fähigkeiten der künstlichen Intelligenz nicht aus.

Altmans Enthüllung erfolgte in einem Post auf X, wo er auf Bedenken von kostenpflichtigen Plus-Abonnenten einging, die monatlich 20 US-Dollar für den Zugang zur zweithöchsten Stufe des Modells investieren, bezüglich drastischer Reduzierungen ihrer Chatbot-Abfragelimits. Er enthüllte eine frappierende Statistik: Vor dem Start von GPT-5 nutzten nur magere 1% der nicht zahlenden Nutzer und 7% der zahlenden Nutzer ein „Denkmodell“ wie o3. Denkmodelle sind darauf ausgelegt, Probleme „durchzudenken“, bevor sie eine Antwort generieren, ein Prozess, der mehr Rechenaufwand, Planung und iterative Verfeinerung erfordert. Diese Fähigkeiten zu vernachlässigen, wie es die überwiegende Mehrheit der Nutzer tat, ist vergleichbar damit, ein Hochleistungsauto ausschließlich im ersten oder zweiten Gang zu fahren oder in einer Quizshow mit hohem Einsatz impulsiv den ersten Gedanken herauszuplatzen, der einem in den Sinn kommt.

Diese weit verbreitete Unterauslastung rührt größtenteils daher, dass Nutzer Geschwindigkeit und Bequemlichkeit über die Qualität ihrer KI-Chatbot-Interaktionen stellen. Die starke Gegenreaktion gegen die anfängliche Entfernung von GPT-4o, einem früheren Modell, das später nach einer konzertierten Kampagne für zahlende Nutzer wiederhergestellt wurde, unterstrich diese Präferenz. Wenn jedoch Antworten von einem Chatbot gesucht werden, sollten Genauigkeit und Tiefe idealerweise Vorrang haben. Während Denkmodelle eine etwas längere Verarbeitungszeit erfordern mögen – oft nur eine Minute statt einer Sekunde –, ist diese kurze Verzögerung ein geringer Preis für eine zuverlässigere und umfassendere Antwort.

Der inhärente Kompromiss bei Denkmodellen ist ihr erhöhter Rechenaufwand, was sich in langsamerer Leistung und höheren Betriebskosten für Anbieter niederschlägt. Folglich bieten KI-Unternehmen typischerweise ihre weniger ressourcenintensiven, „nicht denkenden“ Versionen als Standard an und verlangen von den Nutzern, über ein Dropdown-Menü aktiv fähigere Alternativen auszuwählen. OpenAIs frühere, oft obskure Modellbenennungskonventionen verschärften dieses Problem zusätzlich und erschwerten es den Nutzern, zwischen den fortschrittlichen „Denk“-Versionen und ihren weniger ausgefeilten Gegenstücken zu unterscheiden. Obwohl GPT-5 dies zu vereinfachen versuchte, bleibt das Problem bestehen, was OpenAI dazu veranlasst, seine Benutzeroberfläche als Reaktion auf Nutzerbeschwerden zu verfeinern.

Trotz dieser Bemühungen und der klareren Unterscheidung zwischen dem „Flaggschiff“ GPT-5 und der gründlicheren Option „GPT-5 thinking“ entscheidet sich derzeit nur einer von vier zahlenden Nutzern für Letzteres. Diese Zurückhaltung, ein paar zusätzliche Momente für eine überlegene Antwort zu warten, bietet einen entscheidenden Einblick in eine breitere Herausforderung bei der Akzeptanz von KI. Es hilft zu erklären, warum nur etwa ein Drittel der Amerikaner, die jemals einen Chatbot benutzt haben, ihn als extrem oder sehr nützlich empfinden – eine Rate, die halb so hoch ist wie die von KI-Experten – und warum einer von fünf ihn überhaupt nicht nützlich findet, doppelt so hoch wie die Expertenrate. Die Schlussfolgerung wird immer deutlicher: Viele Personen interagieren einfach nicht mit KI auf eine Weise, die ihr volles Potenzial freisetzt, indem sie hochentwickelte Tools eher wie einfache Suchmaschinen als wie leistungsstarke Analysepartner behandeln.

Um generative KI wirklich zu nutzen, sollten Nutzer die zunehmende Zugänglichkeit dieser fortschrittlichen Modelle von OpenAI nutzen. Durch die Aktivierung der „Denk“-Funktionen – wobei zu beachten ist, dass KI keine menschliche Kognition besitzt – können Nutzer ihre Chatbot-Interaktionen von oberflächlichen Austauschen in wirklich wertvolle Engagements verwandeln und möglicherweise ihre Wahrnehmung des Nutzens von KI verändern.