OpenAI CEO: Nutzer missverstehen KI-Fähigkeiten – Fokus auf Tempo

Fastcompany

Die Veröffentlichung von GPT-5, OpenAIs neuester Iteration seines generativen KI-Modells, am 7. August stieß auf gegensätzliche Reaktionen. Während das Unternehmen es nach wochenlangem intensivem Hype und einer ausgefeilten Live-Enthüllung als transformativen Sprung pries, reagierten Social-Media-Nutzer mit einer Mischung aus Verwirrung und Frustration, insbesondere über die Entfernung mehrerer Schlüsselmodelle, auf die sie sich verlassen hatten.

Im Nachgang beleuchtete OpenAI-CEO Sam Altman unbeabsichtigt die erhebliche Diskrepanz zwischen den Erwartungen des Unternehmens an die Rezeption von GPT-5 und der Realität. Es scheint, dass ein Großteil der Nutzer das volle Potenzial der KI nicht ausschöpft. Altman enthüllte, dass vor dem Debüt von GPT-5 nur magere 1 % der nicht zahlenden Nutzer und nur 7 % derjenigen, die das 20-Dollar-pro-Monat-Plus-Abonnement nutzten, jemals ein „Denkmodell“ wie o3 abgefragt hatten. Diese Offenbarung erfolgte inmitten von Erklärungen für drastisch reduzierte Zugangsbeschränkungen für zahlende Nutzer, was Fragen nach dem Wert aufwarf, den diese erhielten.

Denkmodelle sind darauf ausgelegt, Probleme sorgfältig zu verarbeiten, bevor sie eine Antwort formulieren. Obwohl es entscheidend ist, sich daran zu erinnern, dass diese KI-Modelle keine menschenähnliche Kognition besitzen, simulieren sie einen tieferen analytischen Ansatz. Die überwältigende Mehrheit der Nutzer, sowohl zahlende als auch nicht zahlende, die sich gegen diese Modelle entscheiden, ist vergleichbar mit dem Kauf eines Hochleistungsautos, das man nur im ersten oder zweiten Gang fährt, und sich dann wundert, warum es nicht optimal funktioniert.

Viele Nutzer scheinen, so scheint es, sofortige Befriedigung und Bequemlichkeit über die Qualität und Tiefe von KI-Chatbot-Interaktionen zu stellen. Diese Präferenz zeigte sich im weit verbreiteten Bedauern über den vorübergehenden Verlust von GPT-4o, einem früheren Modell, das nach öffentlicher Nachfrage schließlich für zahlende Nutzer wiederhergestellt wurde. Wenn man jedoch Antworten von einem Chatbot sucht, sind Genauigkeit und Gründlichkeit von größter Bedeutung. Eine etwas langsamere, aber korrekte Antwort ist ausnahmslos wertvoller als eine schnelle, aber fehlerhafte.

Denkmodelle sind so konstruiert, dass sie einen größeren Rechenaufwand für die Planung, den Querverweis und die Verfeinerung ihrer Antworten aufwenden. Dieser bewusste Prozess verbessert die Qualität der Ergebnisse erheblich, insbesondere bei Aufgaben, bei denen logische Präzision entscheidend ist. Der Kompromiss ist jedoch eine längere Verarbeitungszeit und höhere Betriebskosten. Folglich greifen KI-Anbieter oft standardmäßig auf schnellere, weniger analytische Versionen zurück und verlangen von den Nutzern, über Schnittstellenoptionen aktiv fähigere Alternativen auszuwählen. OpenAIs frühere Geschichte komplexer und oft undurchsichtiger Modellbenennungskonventionen verschärfte dieses Problem zusätzlich und erschwerte es den Nutzern, die Fähigkeiten verschiedener Versionen zu erkennen – ein Problem, das GPT-5 zu lösen versuchte, wenn auch mit gemischtem Erfolg, was zu weiteren Nutzerbeschwerden und fortlaufenden Anpassungen seitens des Unternehmens führte.

Für viele ist das Warten einer zusätzlichen Minute auf eine überlegene KI-Antwort eine geringfügige Unannehmlichkeit, die durch Multitasking leicht zu bewältigen ist. Doch für einige scheint diese kurze Verzögerung ein erhebliches Hindernis zu sein. Selbst nach dem Start von GPT-5, bei dem der Unterschied zwischen dem „Flaggschiff-Modell“ und der gründlicheren Option „GPT-5 thinking“ deutlicher ist, fordern nur einer von vier zahlenden Nutzern aktiv umfassende Antworten an.

Dieser übersehene Datenpunkt bietet eine überzeugende Antwort auf eine umfassendere Frage zur KI-Adoption: Warum betrachten nur etwa ein Drittel der Amerikaner, die einen Chatbot verwendet haben, diesen als extrem oder sehr nützlich – eine Rate, die halb so hoch ist wie die von KI-Experten –, während jeder Fünfte ihn überhaupt nicht nützlich findet, doppelt so hoch wie die Expertenrate? Die Erklärung scheint nun klar: Ein großer Teil der Öffentlichkeit nutzt KI unzureichend. Sie stellen Chatbots komplexe, mehrteilige Fragen, ohne die tiefere Verarbeitung zuzulassen, die wirklich aufschlussreiche Antworten liefert.

Um die Leistungsfähigkeit generativer KI wirklich zu nutzen, sollten Nutzer den breiteren Zugang zu fortschrittlichen Modellen nutzen, den Anbieter wie OpenAI zunehmend anbieten. Indem sie sich für die analytischeren „Denk“-Modi entscheiden – und dabei bedenken, dass KI nicht wirklich wie Menschen denkt – können Nutzer eine wertvollere und zuverlässigere Erfahrung freischalten, die ihre Wahrnehmung des Nutzens von KI potenziell verändern kann.