OpenAI CEO: Die meisten Nutzer missbrauchen ChatGPTs erweiterte Funktionen

Fastcompany

Der jüngste Start von OpenAIs GPT-5, von der Firma als weltverändernder Fortschritt angepriesen, stieß in der Öffentlichkeit auf eine überraschend verhaltene Reaktion. Wochen intensiven Hypes und eine ausgefeilte Live-Stream-Enthüllung wurden nicht von weitreichendem Lob, sondern von Verwirrung und sogar Wut unter Social-Media-Nutzern begleitet, von denen viele das Entfernen wichtiger Funktionen beklagten, auf die sie sich verlassen hatten. Diese Diskrepanz zwischen OpenAIs großen Erwartungen und der Nutzererfahrung wurde schnell offensichtlich, und im Nachhinein beleuchtete CEO Sam Altman unbeabsichtigt das Kernproblem: Ein erheblicher Teil der KI-Nutzer schöpft das volle Potenzial der Technologie nicht aus.

In einem Post auf X ging Altman auf Bedenken von zahlenden Plus-Abonnenten ein, die monatlich 20 US-Dollar für den Zugang zu einer höheren Stufe des Modells zahlen, bezüglich einer drastischen Reduzierung ihrer Chatbot-Ratenbegrenzungen. Seine Erklärung enthüllte eine aufschlussreiche Statistik: Vor der Veröffentlichung von GPT-5 hatten nur 1 % der nicht zahlenden Nutzer und lediglich 7 % der zahlenden Nutzer jemals ein „Denkmodell“ wie o3 abgefragt. Diese Denkmodelle sind darauf ausgelegt, Probleme zu „durchdenken“, bevor sie eine Antwort generieren. Es ist jedoch entscheidend, sich daran zu erinnern, dass KI-Modelle keine menschenähnliche Kognition besitzen; ihr „Denken“ bezieht sich auf einen strukturierten, rechnerischen Prozess des Planens, Prüfens und Iterierens zur Verfeinerung der Ergebnisse.

Die überwiegende Mehrheit der Nutzer, sowohl kostenlose als auch zahlende, scheint Geschwindigkeit und sofortige Antworten der Tiefe und Genauigkeit vorzuziehen, die Denkmodelle bieten können. Diese Tendenz ähnelt dem Kauf eines Hochleistungsautos, das man aber nur im ersten oder zweiten Gang fährt und sich dann wundert, warum es sich träge anfühlt, oder der Teilnahme an einer Quizshow, bei der man den ersten Gedanken, der einem in den Sinn kommt, ohne Überlegung herausschreit. Eine solche Präferenz für Unmittelbarkeit erklärt, warum viele Nutzer Enttäuschung über das anfängliche Fehlen von GPT-4o äußerten, einem älteren Modell, das später nach einer lautstarken Kampagne für zahlende ChatGPT-Nutzer wiederhergestellt wurde. Doch bei der Suche nach Antworten von einem Chatbot sollte die Qualität wohl Vorrang haben. Eine etwas langsamere, genauere Antwort ist im Allgemeinen weitaus wertvoller als eine schnelle, aber falsche.

Denkmodelle erfordern von Natur aus mehr Rechenaufwand, da sie Ressourcen für die Planung, Überprüfung und Verfeinerung ihrer Ausgabe aufwenden. Dieser bewusste Ansatz verbessert die Qualität der Ergebnisse erheblich, insbesondere bei Aufgaben, bei denen logische Präzision von größter Bedeutung ist. Diese erhöhte Verarbeitungszeit führt jedoch auch zu höheren Betriebskosten für die Anbieter. Folglich bieten KI-Unternehmen oft standardmäßig schnellere, weniger „nachdenkliche“ Versionen ihrer Modelle an und verlangen von den Nutzern, dass sie sich explizit für die leistungsfähigeren Alternativen entscheiden, typischerweise über ein Dropdown-Menü. Darüber hinaus hat OpenAIs historische Tendenz zu obskuren Modellbenennungskonventionen nicht geholfen, was es den Nutzern erschwert, zu erkennen, ob sie auf die fortschrittliche „Denk“-Version von GPT-5 oder eine weniger leistungsfähige Variante zugreifen. Nach Nutzerfeedback arbeitet das Unternehmen Berichten zufolge daran, diese Unterscheidung zu vereinfachen.

Für viele ist das Warten einer zusätzlichen Minute auf eine überlegene KI-Antwort eine geringfügige Unannehmlichkeit, die leicht zu bewältigen ist, indem man das Modell arbeiten lässt und sich anderen Aufgaben widmet. Diese kurze Verzögerung ist jedoch für einige offensichtlich zu lang. Selbst nach dem Start von GPT-5, bei dem die Option für „gründlichere Antworten“ sichtbarer präsentiert wird, wählt nur jeder vierte zahlende Nutzer diesen bewussteren Modus.

Diese Daten bieten einen entscheidenden Einblick in eine umfassendere Frage zur KI-Einführung: Warum halten nur ein Drittel der Amerikaner, die einen Chatbot verwendet haben, ihn für „extrem“ oder „sehr nützlich“ – eine Rate, die halb so hoch ist wie die von KI-Experten – während jeder Fünfte ihn für „überhaupt nicht nützlich“ hält, doppelt so hoch wie die Rate unter Experten? Die Antwort scheint nun klarer: Die meisten Menschen nutzen KI einfach nicht effektiv. Sie gehen komplexe, mehrteilige Fragen mit der Erwartung einer sofortigen, unraffinierten Antwort an, ähnlich wie man bei Der Preis ist heiß „Was ist Makkaroni mit Käse“ oder bei Jeopardy! „42 Dollar“ herausschreit, ohne innezuhalten, um die Nuancen zu berücksichtigen.

Um die Leistungsfähigkeit generativer KI wirklich zu nutzen, sollten Nutzer die Bemühungen von OpenAI in Anspruch nehmen, den Zugang zu ihren fortschrittlicheren Modellen zu verbessern. Indem sie die „Denk“-Fähigkeiten dieser Chatbots nutzen – und dabei stets daran denken, dass sie nicht wirklich wie Menschen denken – werden Nutzer eher das transformative Potenzial erleben, das KI-Experten bereits erkennen.