OpenAI CEO: Die meisten Nutzer unterschätzen KI-Potenzial

Fastcompany

Die jüngste Veröffentlichung von GPT-5, der neuesten Iteration von OpenAI’s ChatGPT am 7. August, stieß auf einen starken Gegensatz in den Reaktionen. OpenAI hatte wochenlang akribisch Erwartungen geschürt, gipfelnd in einer glanzvollen Live-Enthüllung, die das Modell als weltverändernden Fortschritt pries. Doch unter Social-Media-Nutzern war die Reaktion auffallend verhalten, eher geprägt von Verwirrung und Frustration über die Entfernung mehrerer Schlüsselmodelle, auf die viele sich verlassen hatten.

Diese signifikante Diskrepanz zwischen OpenAIs hohen Erwartungen und der eher lauwarmen öffentlichen Aufnahme wurde im Nachhinein von CEO Sam Altman unabsichtlich beleuchtet. Seine Erklärung enthüllte eine grundlegende Wahrheit: Eine große Anzahl von Nutzern schöpft die vollen Fähigkeiten der künstlichen Intelligenz nicht aus. In einem Beitrag, in dem er erklärte, warum OpenAI seine gebührenpflichtigen Plus-Nutzer – die monatlich 20 Dollar für den Zugang zu einer höheren Stufe des Modells zahlen – scheinbar benachteiligte, enthüllte Altman, dass nur 1 % der nicht zahlenden Nutzer vor dem Start von GPT-5 ein „Denkmodell“ wie o3 abgefragt hatten. Bei zahlenden Abonnenten stieg diese Zahl nur geringfügig auf 7 %.

Denkmodelle sind darauf ausgelegt, Probleme „zu durchdenken“, bevor sie eine Antwort formulieren. Es ist jedoch entscheidend, sich daran zu erinnern, dass KI-Modelle keine Menschen sind und trotz der hilfreichen Analogie des „Denkens“ keine menschenähnliche Kognition besitzen. Die überwältigende Mehrheit der Nutzer, sowohl kostenlose als auch bezahlte, umging diese Fähigkeiten. Dieses Versäumnis ist vergleichbar damit, ein Hochleistungsauto zu kaufen und nur den ersten und zweiten Gang zu nutzen, sich dann zu wundern, warum das Fahrerlebnis eingeschränkt ist; oder an einer Quizsendung teilzunehmen und bei jeder Frage den ersten Gedanken herauszuplappern, der einem in den Sinn kommt, ungeachtet der Richtigkeit.

Viele Nutzer scheinen sofortige Geschwindigkeit und Bequemlichkeit der Qualität und Tiefe der Antworten von KI-Chatbots vorzuziehen. Diese Präferenz zeigte sich in dem weit verbreiteten Klagen über den vorübergehenden Verlust von GPT-4o, einem älteren Modell, das später nach einer konzertierten Nutzerkampagne für zahlende ChatGPT-Nutzer wiederhergestellt wurde. Doch wenn man Antworten von einem hochentwickelten Chatbot sucht, sind Genauigkeit und Gründlichkeit von größter Bedeutung. Eine etwas langsamere, überlegtere und korrekte Antwort ist ausnahmslos wertvoller als eine schnelle, aber fehlerhafte.

Denkmodelle sind so konzipiert, dass sie vor der Bereitstellung ihrer endgültigen Ausgabe einen größeren Rechenaufwand für Planung, Überprüfung und Iteration betreiben. Diese verlängerte Überlegung verbessert die Ergebnisse für Aufgaben, bei denen logische Präzision entscheidend ist, erheblich. Natürlich ist dieser Prozess sowohl langsamer als auch rechenintensiver, was ihn für Anbieter kostspieliger macht. Folglich bieten KI-Entwickler oft standardmäßig die grundlegenderen, „nicht denkenden“ Versionen an und verlangen von den Nutzern, dass sie die leistungsfähigeren Alternativen aktiv über ein Dropdown-Menü auswählen. Erschwerend kam OpenAIs zuvor undurchsichtige Modell-Namenskonventionen hinzu – ein Problem, das GPT-5 zu lösen versuchte, wenn auch mit begrenztem Erfolg. Nutzer haben immer noch Schwierigkeiten, leicht zu erkennen, ob sie auf die fortschrittliche „Denk“-Version von GPT-5 oder eine weniger leistungsfähige Variante zugreifen. OpenAI hat Berichten zufolge das Nutzerfeedback zur Kenntnis genommen und arbeitet daran, diesen Aspekt zu verfeinern.

Für einige mag das Warten von einer Minute auf eine umfassende KI-Antwort statt einer Sekunde vernachlässigbar erscheinen; man kann die Anfrage einfach starten und sich anderen Aufgaben widmen. Doch für viele erweist sich selbst diese kurze Pause als zu lang. Selbst nach der Veröffentlichung von GPT-5, wo der Unterschied zwischen dem „Flaggschiff-Modell“ GPT-5 und „GPT-5 Thinking“ – das explizit „gründlichere Antworten“ verspricht – deutlicher ist, wählt nur jeder vierte zahlende Nutzer die tiefere, umfassendere Option.

Diese aufschlussreichen Daten bieten einen entscheidenden Einblick in eine umfassendere Frage zur KI-Adoption: Warum betrachten nur etwa ein Drittel der Amerikaner, die jemals einen Chatbot benutzt haben, ihn als extrem oder sehr nützlich (eine Rate, die halb so hoch ist wie unter KI-Experten), während jeder Fünfte ihn als überhaupt nicht nützlich erachtet (doppelt so hoch wie unter Experten)? Die Antwort scheint nun klarer: Die meisten Individuen nutzen die Technologie grundsätzlich falsch. Sie beauftragen fortschrittliche Chatbots mit komplexen, mehrteiligen Fragen, ohne die Fähigkeit der Modelle zur durchdachten Verarbeitung zu nutzen.

Um die Kraft der generativen KI wirklich zu nutzen, sollten Nutzer die Bemühungen von OpenAI zur Verbesserung des Modellzugangs in Anspruch nehmen. Indem sie die KI bewusst auf ihre „Denk“-Modi einstellen – und dabei bedenken, dass dies ein Rechenprozess und kein menschliches Denken ist – werden Nutzer die Erfahrung wahrscheinlich als weitaus wertvoller und überzeugender empfinden. Dieser Ansatz stellt die effektivste Art dar, mit moderner KI zu interagieren.