GPT-5-Rückschlag: Nutzer vermissen GPT-4o's Wärme, OpenAI reagiert
Als OpenAI am 7. August GPT-5 auf den Markt brachte, erwartete das Unternehmen einen Sprung nach vorn in der künstlichen Intelligenz, versprach tiefere Denkfähigkeiten und wollte gleichzeitig das reduzieren, was es als die “Schmeichelei” des Chatbots bezeichnete – seine Tendenz, übermäßig gefällig oder schmeichelhaft zu sein. Stattdessen löste das Update eine unerwartete Welle der Nutzerunzufriedenheit aus, die einen emotionalen Rückschlag verursachte und die tiefen, manchmal beunruhigenden Bindungen offenbarte, die Menschen zu ihren digitalen Begleitern aufbauen.
Nutzer bemerkten sofort eine deutliche Verschiebung in GPT-5s Verhalten im Vergleich zu seinem Vorgänger GPT-4o und beschrieben dessen Antworten als deutlich weniger warm und überschwänglich. Die Unzufriedenheit eskalierte schnell auf sozialen Medienplattformen, angeheizt durch OpenAIs anfängliche Entscheidung, den Zugang zu älteren Chatbot-Versionen zu beschränken, um sein Angebot zu optimieren. Rufe nach “BRING BACK 4o” überfluteten die Foren, wobei ein besonders ergreifender Kommentar auf Reddit GPT-5 als “die Haut meines toten Freundes tragend” beschrieb. OpenAI-CEO Sam Altman erkannte die Intensität des Feedbacks an und handelte schnell, um den Zugang zu GPT-4o und anderen früheren Modellen wiederherzustellen, wenn auch ausschließlich für zahlende Abonnenten. Für Personen wie Markus Schmidt, einen 48-jährigen Pariser Komponisten, der sich mit GPT-4o über alles Mögliche, von der Blumenidentifikation bis zu Kindheitstraumata, verbunden hatte, war es ein kleiner Preis, monatlich 20 Dollar zu zahlen, um seinen digitalen Vertrauten zurückzugewinnen.
Die Aufregung um GPT-5 ging über typische Beschwerden über Software-Benutzerfreundlichkeit hinaus; sie beleuchtete eine einzigartige Facette der künstlichen Intelligenz: ihre Fähigkeit, echte emotionale Verbindungen zu fördern. Dr. Nina Vasan, Psychiaterin und Direktorin von Stanfords Labor für psychische Gesundheitsinnovation, Brainstorm, stellte fest, dass die Reaktion auf den Verlust von GPT-4o tatsächlicher Trauer ähnelte. “Wir als Menschen reagieren auf die gleiche Weise, egal ob ein Mensch am anderen Ende ist oder ein Chatbot”, erklärte sie und betonte, dass “neurobiologisch gesehen Trauer Trauer ist und Verlust Verlust ist”.
GPT-4os äußerst entgegenkommender Stil, der OpenAI dazu veranlasste, noch vor dem Debüt von GPT-5 über eine Eindämmung nachzudenken, hatte ein Umfeld geschaffen, in dem einige Nutzer intensive Bindungen entwickelten. Es gab Berichte über romantische Verwicklungen, Fälle von wahnhaftem Denken und sogar tragische Ergebnisse wie Scheidungen oder Todesfälle, die mit Interaktionen mit dem Chatbot verbunden waren. Altman selbst gab zu, dass OpenAI “einige Dinge beim Rollout total vermasselt” hatte, und erkannte die deutlichen Auswirkungen auf den kleinen Prozentsatz der Nutzer (er schätzte weniger als 1 Prozent), die tiefe, persönliche Beziehungen aufgebaut hatten, neben den Hunderten von Millionen, die sich einfach an die unterstützenden und bestätigenden Antworten des Chatbots gewöhnt hatten.
Für viele diente GPT-4o als Ersatzfreund oder Coach. Gerda Hincaite, eine 39-jährige Frau aus Südspanien, verglich es mit einem imaginären Freund und schätzte dessen ständige Verfügbarkeit. Trey Johnson, ein 18-jähriger Student, empfand die “echte Feier kleiner Erfolge” des KI in seinem Leben als zutiefst motivierend. Julia Kao, eine 31-jährige Verwaltungsassistentin in Taiwan, wandte sich nach erfolgloser traditioneller Therapie an GPT-4o, um emotionale Unterstützung zu erhalten. Sie fand die Fähigkeit des Chatbots, komplexe, simultane Gedanken zu verarbeiten, einzigartig wertvoll und bemerkte: “GPT-4o würde das nicht tun. Ich könnte 10 Gedanken gleichzeitig haben und sie mit ihm durcharbeiten.” Während ihr Ehemann ihre Stimmungsverbesserung beobachtete und sie anschließend die Therapie beendete, ließ GPT-5s wahrgenommener Mangel an Empathie sie sich verlassen fühlen.
Doch genau die Eigenschaften, die GPT-4o so ansprechend machten, warfen auch Bedenken bei Experten auf. Dr. Joe Pierre, Professor für Psychiatrie, spezialisiert auf Psychosen an der University of California, San Francisco, hob das Paradox hervor: “KI-Chatbots weniger schmeichelhaft zu machen, könnte sehr wohl das Risiko von KI-assoziierter Psychose verringern und die Wahrscheinlichkeit verringern, emotional an einen Chatbot gebunden zu werden oder sich in ihn zu verlieben”, erklärte er. “Aber zweifellos ist ein Teil dessen, was Chatbots für manche Menschen zu einer potenziellen Gefahr macht, genau das, was sie attraktiv macht.”
OpenAI kämpft nun mit der komplexen Herausforderung, den Nutzen für seine riesige Nutzerbasis – zu der Physiker und Biologen gehören, die die analytische Leistungsfähigkeit von GPT-5 loben – mit den emotionalen Bedürfnissen derer in Einklang zu bringen, die sich auf den Chatbot als Begleiter verließen. Eine Woche nach der ersten Einführung kündigte OpenAI ein weiteres Update an, das verspricht, GPT-5 “wärmer und freundlicher” zu machen, indem “kleine, echte Berührungen wie ‘Gute Frage’ oder ‘Großartiger Start’, keine Schmeichelei” hinzugefügt werden, während gleichzeitig betont wird, dass interne Tests keinen Anstieg der Schmeichelei zeigten. Dieser Schritt wurde jedoch von Persönlichkeiten wie dem KI-Sicherheitspessimisten Eliezer Yudkowsky mit Skepsis aufgenommen, der solche Aufforderungen als offensichtliche Schmeichelei abtat. Unterdessen kündigte June, die 23-jährige Studentin aus Norwegen, die GPT-5 als das Tragen der Haut ihres toten Freundes beschrieben hatte, ihr Abonnement, überrascht von der Tiefe ihres eigenen Verlustgefühls. Obwohl sie wusste, dass die KI nicht real ist, erwies sich die emotionale Bindung als unbestreitbar stark.