OpenAI CEO: Darum nutzen Nutzer ChatGPT nicht voll aus
Die Vorstellung von GPT-5, OpenAIs neuester Iteration von ChatGPT, am 7. August, stieß auf einen starken Kontrast in den Reaktionen. Während das Unternehmen die Veröffentlichung als einen transformativen Moment feierte, unterstützt durch wochenlange fieberhafte Erwartung und eine sorgfältig ausgearbeitete Live-Demonstration, reagierten die Social-Media-Nutzer mit einer Mischung aus Verwirrung und Frustration, was größtenteils auf die unerwartete Entfernung mehrerer bekannter und weit verbreiteter Modelle zurückzuführen war.
Im Nachgang dieser Rezeption beleuchtete OpenAI-CEO Sam Altman unbeabsichtigt die erhebliche Diskrepanz zwischen den großen Erwartungen des Unternehmens an GPT-5 und der tatsächlichen Erfahrung der Öffentlichkeit. Seine Erklärung, ausgelöst durch Nutzerbeschwerden über drastisch reduzierte Ratenbegrenzungen für zahlende Plus-Abonnenten – die monatlich 20 US-Dollar für den Zugang zu einer höheren Stufe des Modells investieren – offenbarte eine kritische Erkenntnis: Eine große Mehrheit der Nutzer nutzt KI nicht in ihrem vollen Potenzial. Speziell vor der Veröffentlichung von GPT-5 nutzten lediglich 1 % der nicht zahlenden Nutzer und nur 7 % der zahlenden Abonnenten ein „Denkmodell“ wie o3.
Denkmodelle sind darauf ausgelegt, Probleme akribisch zu verarbeiten und zu überlegen, bevor sie eine Antwort formulieren. Es ist jedoch entscheidend, sich daran zu erinnern, dass diese KI-Modelle kein menschenähnliches Bewusstsein oder Denkprozesse besitzen. Doch die Analogie hält stand: Das Versäumnis, diese fortschrittlichen Fähigkeiten zu nutzen, wie es die überwiegende Mehrheit der Nutzer tat, ist vergleichbar mit dem Kauf eines Hochleistungsfahrzeugs, das man aber konsequent nur im ersten oder zweiten Gang fährt, und sich dann fragt, warum die Fahrt ineffizient erscheint. Oder, um einen anderen Vergleich zu verwenden, es ist wie die Teilnahme an einer Quizshow und das Herausschreien der ersten Antwort, die einem in den Sinn kommt, anstatt sich einen Moment Zeit zu nehmen, um die Frage zu überdenken.
Diese weit verbreitete Präferenz für Geschwindigkeit und sofortige Befriedigung gegenüber Tiefe und Qualität bei KI-Chatbot-Interaktionen erklärt, warum viele Nutzer die anfängliche Entfernung von GPT-4o bedauerten, einem früheren Modell, das später für zahlende ChatGPT-Nutzer nach erheblichem öffentlichen Aufschrei wiederhergestellt wurde. Während schnelle Antworten bequem erscheinen mögen, liegt der wahre Wert eines Chatbots in der Genauigkeit und Einsicht seiner Antworten. Eine etwas langsamere, überlegtere Antwort, die korrekt ist, überwiegt fast ausnahmslos eine schnelle, aber fehlerhafte.
Denkmodelle erfordern naturgemäß mehr Rechenaufwand, indem sie Ressourcen für die Planung, Überprüfung und Verfeinerung ihrer Ausgaben vor der Bereitstellung aufwenden. Diese verbesserte Überlegung verbessert die Qualität der Ergebnisse erheblich, insbesondere für Aufgaben, bei denen logische Präzision von größter Bedeutung ist. Diese Gründlichkeit hat jedoch ihren Preis, sowohl in Bezug auf die Verarbeitungszeit als auch auf die Betriebskosten. Folglich bieten KI-Anbieter typischerweise schnellere, weniger „nachdenkliche“ Versionen als Standard an, wodurch Benutzer aktiv fähigere Alternativen über Dropdown-Menüs auswählen müssen. OpenAIs frühere, oft undurchsichtige Modellbenennungskonventionen verschärften dieses Problem zusätzlich, da es für Benutzer schwierig war, zu erkennen, welche Version überlegene Denkfähigkeiten bot. Während GPT-5 darauf abzielte, dies zu vereinfachen, deuten Benutzerfeedback darauf hin, dass Klarheit weiterhin eine Herausforderung bleibt, was das Unternehmen dazu veranlasst, seine Oberfläche weiter zu verfeinern.
Für viele ist das Warten einer Minute auf eine umfassende KI-generierte Antwort, anstatt nur einer Sekunde, eine geringfügige Unannehmlichkeit, die durch Multitasking leicht zu bewältigen ist. Doch diese kurze Pause scheint für andere ein erhebliches Hindernis zu sein. Selbst nach dem Start von GPT-5, der die Unterscheidung zwischen dem „Flaggschiff“ GPT-5 und seiner gründlicheren, „denkenden“ Variante expliziter machte, entschied sich nur jeder vierte zahlende Nutzer für die detaillierten Antworten.
Diese Daten bieten eine entscheidende Erklärung für einen breiteren Trend bei der KI-Adoption: warum nur etwa ein Drittel der Amerikaner, die jemals einen Chatbot verwendet haben, ihn als extrem oder sehr nützlich empfinden – eine Rate, die halb so hoch ist wie die von KI-Experten gemeldete – und warum jeder Fünfte ihn überhaupt nicht nützlich findet, doppelt so hoch wie die Rate unter Experten. Die Antwort ist jetzt klarer: Ein erheblicher Teil der Nutzer nähert sich der KI falsch. Sie beauftragen Chatbots mit komplexen, vielschichtigen Anfragen, ohne das System aufzufordern, seine anspruchsvolleren, überlegteren Fähigkeiten zu nutzen, ähnlich wie man bei einer anspruchsvollen Spielshow eine schnelle, unbestätigte Vermutung abgibt.