OpenAI CEO: Viele Nutzer übersehen ChatGPTs Denkfunktion

Fastcompany

Der mit Spannung erwartete Start von OpenAI’s GPT-5 am 7. August wurde mit einem starken Kontrast in den Reaktionen aufgenommen. Während das Unternehmen seine neueste ChatGPT-Iteration nach wochenlanger intensiver Hype und einer ausgefeilten Live-Enthüllung als weltverändernde Weiterentwicklung feierte, reagierten Social-Media-Nutzer mit einer Mischung aus Verwirrung und Frustration, hauptsächlich aufgrund der unerwarteten Entfernung mehrerer beliebter älterer Modelle.

Im Nachhinein beleuchtete OpenAI CEO Sam Altman unbeabsichtigt die erhebliche Kluft zwischen den Erwartungen des Unternehmens an die GPT-5-Rezeption und der Realität. Es scheint, dass die überwiegende Mehrheit der Nutzer die künstliche Intelligenz nicht in vollem Umfang nutzt. Altman enthüllte in einem Beitrag, der Anpassungen der Ratenbegrenzungen für kostenpflichtige Plus-Nutzer – die monatlich 20 US-Dollar für den Zugang zu einer höheren Stufe des Modells zahlen – erklärte, eine frappierende Statistik: Vor der Veröffentlichung von GPT-5 fragten nur 1 % der nicht zahlenden Nutzer und lediglich 7 % der zahlenden Nutzer aktiv ein „Denkmodell“ ab.

Denkmodelle sind darauf ausgelegt, Probleme „durchzudenken“, bevor sie eine Antwort formulieren, und dabei einen bewussteren Rechenprozess einzugehen. Dies beinhaltet Planung, Überprüfung und Iteration, um Ergebnisse zu verfeinern, insbesondere bei Aufgaben, bei denen logische Genauigkeit von größter Bedeutung ist. Es ist jedoch entscheidend, sich daran zu erinnern, dass KI-Modelle trotz des Begriffs „Denken“ nicht mit menschlicher Kognition oder Bewusstsein operieren. Die überwältigende Mehrheit der Nutzer, sowohl kostenlos als auch kostenpflichtig, die diese fähigeren Modelle meiden, ist vergleichbar mit dem Kauf eines Hochleistungsautos, das konsequent nur im ersten oder zweiten Gang gefahren wird, und sich dann über dessen vermeintlichen Mangel an Effizienz wundert. Es ist wie ein Quizshow-Kandidat, der die erste Antwort heraussprudelt, die ihm in den Sinn kommt, ungeachtet der Richtigkeit.

Viele Nutzer scheinen sofortige Geschwindigkeit und Bequemlichkeit der Qualität und Tiefe der KI-Chatbot-Interaktionen vorzuziehen. Diese Präferenz zeigte sich in dem weitverbreiteten Klagen über die vorübergehende Entfernung von GPT-4o, einem älteren Modell, das später nach einer konzertierten Nutzerkampagne für zahlende ChatGPT-Nutzer wiederhergestellt wurde. Doch wenn man Antworten von einer ausgeklügelten KI sucht, sind Genauigkeit und Gründlichkeit oft von größter Bedeutung. Eine etwas langsamere, bewusstere Antwort ist häufig einer schnellen, aber potenziell falschen vorzuziehen.

Der inhärente Kompromiss bei Denkmodellen ist, dass ihre verbesserte Überlegung mehr Rechenaufwand erfordert, was sie langsamer und teurer im Betrieb macht. Folglich bieten KI-Anbieter typischerweise schnellere, weniger rechenintensive Versionen als Standard an und verlangen von den Nutzern, dass sie sich aktiv für die gründlicheren Alternativen entscheiden, oft über ein Dropdown-Menü. OpenAIs frühere, oft undurchsichtige Modellbenennungskonventionen erschwerten diese Wahl zusätzlich, sodass Nutzer nur schwer erkennen konnten, ob sie auf die fähigere „Denk“-Version zugriffen. Das Unternehmen hat dies seitdem als Reaktion auf Nutzerfeedback angepasst.

Selbst mit der Veröffentlichung von GPT-5, bei der der Unterschied zwischen dem Flaggschiff-Modell und seinem „Denk“-Modus – der „gründlichere Antworten“ bietet – deutlicher ist, entscheidet sich derzeit nur jeder vierte zahlende Nutzer dafür, Gründlichkeit zu priorisieren. Für viele ist die kurze Wartezeit von einer Minute gegenüber einer Sekunde für eine KI-Antwort offensichtlich zu lang, trotz der Möglichkeit, Multitasking zu betreiben, während das Modell verarbeitet.

Dieses Nutzerverhalten liefert eine überzeugende Antwort auf eine wichtige Frage zur KI-Einführung: Warum halten nur etwa ein Drittel der Amerikaner, die einen Chatbot verwendet haben, diesen für „extrem“ oder „sehr“ nützlich (eine Rate, die halb so hoch ist wie bei KI-Experten), während einer von fünf ihn als „überhaupt nicht nützlich“ empfindet (doppelt so hoch wie bei Experten)? Das grundlegende Problem ist klar: Ein großer Teil der Öffentlichkeit missbraucht KI grundlegend. Sie versuchen, komplexe, mehrteilige Fragen zu lösen, ohne der KI den notwendigen rechnerischen „Denk“-Prozess zu ermöglichen, und behandeln ein ausgeklügeltes Werkzeug effektiv als einfache, sofortige Antwortmaschine.

Um generative KI wirklich zu nutzen, sollten Nutzer die Bemühungen der Anbieter nutzen, fähigere Modelle zugänglich zu machen. Die KI in ihren „Denk“-Modi zu engagieren, während man sich daran erinnert, dass es kein menschliches Denken ist, kann wesentlich wertvollere und genauere Ergebnisse freischalten und eine produktivere Beziehung zu dieser sich entwickelnden Technologie fördern.