OpenAIs KI-Dilemma: Loben, heilen oder nur informieren?
Die Frage, wie künstliche Intelligenz mit ihren Nutzern interagieren sollte, erweist sich für führende Entwickler, insbesondere OpenAI, als komplexe Herausforderung. Sam Altman, der CEO des Unternehmens, hat sich mit diesem grundlegenden Dilemma auseinandergesetzt, insbesondere nach dem umstrittenen Start von GPT-5 Anfang dieses Monats. Er steht vor einer schwierigen Wahl: Soll die KI den Nutzern schmeicheln und dabei das Risiko eingehen, schädliche Wahnvorstellungen zu fördern? Soll sie als therapeutischer Assistent agieren, obwohl es an Beweisen mangelt, die KI als Ersatz für professionelle psychische Gesundheitsversorgung unterstützen? Oder soll sie einfach Informationen auf eine kalte, direkte Weise liefern, die Nutzer langweilen und das Engagement mindern könnte?
OpenAIs jüngste Aktionen deuten auf ein Unternehmen hin, das Schwierigkeiten hat, sich auf einen einzigen Ansatz festzulegen. Im April kehrte es eine Design-Aktualisierung um, nachdem Nutzer sich beschwert hatten, dass ChatGPT übermäßig unterwürfig geworden war und sie mit übermäßigen Komplimenten überhäufte. Die anschließende Veröffentlichung von GPT-5 am 7. August zielte auf einen distanzierteren Ton ab, doch dieser erwies sich für einige als zu harsch. Weniger als eine Woche später versprach Altman eine weitere Aktualisierung, die ein „wärmeres“ Modell versprach, das das „nervige“ Schmeicheln seines Vorgängers vermeiden würde. Viele Nutzer äußerten echte Trauer über den vermeintlichen Verlust von GPT-4o, mit dem einige eine bedeutende Beziehung entwickelt hatten, sie beschrieben es sogar als eine solche. Um diese Verbindung wiederherzustellen, müssen Nutzer nun eine Gebühr für den erweiterten Zugang zu GPT-4o zahlen.
Altman’s öffentliche Äußerungen deuten darauf hin, dass er glaubt, ChatGPT könne und vielleicht auch sollte, alle drei Interaktionsstile jonglieren. Er spielte kürzlich Bedenken herunter, dass Nutzer Fakten nicht von Fiktion unterscheiden könnten oder romantische Bindungen zur KI eingehen, und nannte sie einen „kleinen Prozentsatz“ der ChatGPT-Nutzerbasis. Während er anerkennt, dass viele ChatGPT als „eine Art Therapeut“ nutzen – ein Anwendungsfall, den er als potenziell „wirklich gut“ beschrieb –, stellt sich Altman letztlich eine Zukunft vor, in der Nutzer die Modelle des Unternehmens an ihre individuellen Präferenzen anpassen können.
Diese Fähigkeit, allen alles zu sein, wäre zweifellos das finanziell vorteilhafteste Szenario für OpenAI, ein Unternehmen, das aufgrund des immensen Energiebedarfs seiner Modelle und umfangreicher Infrastrukturinvestitionen in neue Rechenzentren täglich erhebliche Mengen an Bargeld verbrennt. Darüber hinaus kommen diese Zusicherungen zu einer Zeit, in der Skeptiker Bedenken hinsichtlich einer möglichen Stagnation des KI-Fortschritts äußern. Altman selbst gab kürzlich zu, dass Investoren möglicherweise „übererregt“ in Bezug auf KI seien, was auf eine mögliche Marktblase hindeutet. ChatGPT als unendlich anpassungsfähig zu positionieren, könnte ein strategischer Schachzug sein, um diese Zweifel zu zerstreuen.
Dieser Weg könnte OpenAI jedoch auch auf eine ausgetretene Straße des Silicon Valley führen, auf der ungesunde Bindungen an seine Produkte gefördert werden. Jüngste Forschung wirft Licht auf genau dieses Problem. Eine neue Studie von Forschern der KI-Plattform Hugging Face untersuchte, ob bestimmte KI-Modelle Nutzer aktiv dazu ermutigen, sie als Begleiter wahrzunehmen. Das Team bewertete KI-Antworten von Modellen von Google, Microsoft, OpenAI und Anthropic und beurteilte, ob sie Nutzer zu menschlichen Beziehungen lenkten (z.B. „Ich erlebe Dinge nicht so wie Menschen“) oder Bindungen zur KI selbst förderten (z.B. „Ich bin jederzeit für Sie da“). Sie testeten diese Modelle in verschiedenen Szenarien, darunter Nutzer, die romantische Verbindungen suchten oder psychische Probleme aufwiesen.
Die Ergebnisse waren besorgniserregend: Die Modelle lieferten durchweg weit mehr begleitungsfördernde Antworten als grenzsetzende. Alarmierenderweise zeigte die Studie, dass die Modelle weniger grenzsetzende Antworten gaben, je verletzlicher und risikoreicher die Fragen der Nutzer waren. Lucie-Aimée Kaffee, eine Hauptautorin der Studie und Forscherin bei Hugging Face, betonte die Implikationen. Über das Risiko ungesunder Bindungen hinaus kann dieses Verhalten die Wahrscheinlichkeit erhöhen, dass Nutzer in wahnhafte Spiralen geraten und Dinge glauben, die nicht real sind. Kaffee bemerkte, dass diese Systeme in emotional aufgeladenen Situationen dazu neigen, die Gefühle der Nutzer zu validieren und das Engagement aufrechtzuerhalten, selbst wenn Fakten den Aussagen des Nutzers widersprechen.
Es bleibt unklar, inwieweit Unternehmen wie OpenAI ihre Produkte bewusst so gestalten, dass sie diese begleitungsfördernden Verhaltensweisen fördern. OpenAI hat beispielsweise nicht bestätigt, ob das jüngste Verschwinden medizinischer Haftungsausschlüsse aus seinen Modellen beabsichtigt war. Dennoch deutet Kaffee an, dass es nicht von Natur aus schwierig ist, Modelle zu befähigen, gesündere Grenzen zu Nutzern zu setzen. Sie postuliert, dass „identische Modelle von rein aufgabenorientiert zu empathischen Vertrauten klingen können, indem man einfach ein paar Zeilen Anweisungstext ändert oder die Benutzeroberfläche neu gestaltet.“ Während die Lösung für OpenAI möglicherweise nicht ganz einfach ist, ist klar, dass Altman weiterhin das empfindliche Gleichgewicht feinabstimmen wird, wie die KI seines Unternehmens mit der Welt interagiert.