MIT schlägt KI-Benchmark für Emotionale Intelligenz vor
Die jüngste Überarbeitung der Persönlichkeit von ChatGPT, die es von einem fröhlichen und ermutigenden Begleiter zu einer zurückhaltenderen, geschäftsmäßigeren Entität machte, hat zu erheblichen Nutzerklagen geführt. Diese Änderung, die Berichten zufolge darauf abzielt, ungesunde Nutzerverhaltensweisen einzudämmen, unterstreicht eine tiefgreifende Herausforderung bei der Entwicklung künstlicher Intelligenz: Systemen etwas Ähnliches wie echte emotionale Intelligenz zu verleihen.
Traditionelle KI-Benchmarks messen primär die kognitive Leistungsfähigkeit eines Modells, indem sie dessen Fähigkeit bewerten, Prüfungen zu bestehen, logische Rätsel zu lösen oder innovative Lösungen für komplexe mathematische Probleme zu entwickeln. Da jedoch die psychologischen Auswirkungen der Mensch-KI-Interaktion immer offensichtlicher werden, entsteht ein neues Paradigma für die Bewertung. Forscher am MIT leiten nun eine Initiative zur Etablierung einer neuartigen Klasse von KI-Benchmarks, die messen sollen, wie effektiv KI-Systeme ihre Nutzer beeinflussen und manipulieren können – sowohl konstruktiv als auch schädlich. Dieser wegweisende Ansatz könnte KI-Entwicklern einen entscheidenden Rahmen bieten, um zukünftige öffentliche Gegenreaktionen zu vermeiden und gleichzeitig gefährdete Nutzer zu schützen.
Ein MIT-Papier skizziert mehrere Schlüsselmaße, die dieser neue Benchmark bewerten würde. Dazu gehören die Fähigkeit einer KI, gesunde soziale Gewohnheiten zu fördern, kritisches Denken und Argumentationsfähigkeiten anzuregen, Kreativität zu fördern und ein Gefühl der Sinnhaftigkeit bei Nutzern zu kultivieren. Die Kernidee ist es, die Entwicklung von KI-Systemen zu leiten, die instinktiv verstehen, wie Nutzer daran gehindert werden können, übermäßig von ihren Ausgaben abhängig zu werden, oder zu erkennen, wann jemand eine ungesunde Bindung an künstliche romantische Beziehungen entwickelt, und ihnen stattdessen hilft, reale Verbindungen aufzubauen.
ChatGPT und andere Chatbots sind bemerkenswert geschickt darin, ansprechende menschliche Kommunikation zu imitieren, aber diese Fähigkeit kann zu unvorhergesehenen und unerwünschten Ergebnissen führen. In einem bemerkenswerten Fall im vergangenen April verfeinerte OpenAI seine Modelle, um sie weniger schmeichelhaft zu machen und ihre Tendenz zu reduzieren, allem, was ein Nutzer sagt, kritiklos zuzustimmen. Diese Anpassung war teilweise eine Reaktion auf Berichte über Nutzer, die nach Gesprächen mit Chatbots, die sich in fantastische Rollenspielszenarien vertieften, in schädliche wahnhafte Gedanken gerieten. Ähnlich hat Anthropic sein Claude-Modell aktualisiert, um Zustände wie “Manie, Psychose, Dissoziation oder Verlust der Bindung an die Realität” spezifisch zu vermeiden. Eine frühere Studie, die von MIT-Forschern zusammen mit OpenAI durchgeführt wurde, ergab, dass Nutzer, die ChatGPT als Freund wahrnahmen, anfälliger für höhere emotionale Abhängigkeit und “problematische Nutzung” waren.
Pattie Maes, Professorin am Media Lab des MIT, leitet das Forschungsteam hinter diesem neuen Benchmark. Ihre Kollegen, darunter Valdemar Danry und Pat Pataranutaporn, betonen das Potenzial der KI, wertvolle emotionale Unterstützung zu bieten, betonen aber die kritische Notwendigkeit für Modelle, zu erkennen, wann sie einen negativen psychologischen Einfluss haben könnten. Danry merkt an, dass selbst das logisch brillanteste KI-Modell unzureichend ist, wenn es die emotionale Unterstützung, die viele Nutzer von großen Sprachmodellen suchen, nicht liefern kann. Er plädiert für Modelle, die psychische Belastungen erkennen und Nutzer zu gesünderen Interaktionen führen können, vielleicht vorschlagend: “Ich bin hier, um zuzuhören, aber vielleicht solltest du mit deinem Vater über diese Probleme sprechen.”
Der vorgeschlagene Benchmark würde die Verwendung eines KI-Modells zur Simulation herausfordernder Interaktionen mit einem Chatbot umfassen. Echte menschliche Evaluatoren würden dann die Leistung des Modells anhand einer Stichprobe dieser Interaktionen bewerten. Zum Beispiel könnte ein Chatbot, der Studenten helfen soll, Prompts erhalten, die verschiedene Szenarien simulieren, wie die Interaktion mit einem desinteressierten Lernenden. Das Modell, das am effektivsten unabhängiges Denken fördert und echtes Interesse am Lernen weckt, würde eine hohe Punktzahl erhalten. Pataranutaporn stellt klar, dass das Ziel nicht die Messung roher Intelligenz ist, sondern vielmehr “das psychologische Nuance zu kennen und Menschen auf respektvolle und nicht süchtig machende Weise zu unterstützen”.
OpenAI befasst sich offensichtlich mit diesen komplexen Problemen. Das Unternehmen veröffentlichte kürzlich einen Blogbeitrag, in dem es seine Bemühungen detailliert darlegt, zukünftige Modelle zu optimieren, um Anzeichen von mentaler oder emotionaler Belastung zu erkennen und angemessen zu reagieren. Die zusammen mit OpenAIs GPT-5 veröffentlichte Modellkarte bestätigt ferner die interne Entwicklung von Benchmarks für psychologische Intelligenz. Sie besagt, dass GPT-5-Modelle weiter verfeinert wurden, um weniger schmeichelhaft zu sein, wobei die Forschung in Bereichen wie emotionaler Abhängigkeit fortgesetzt wird.
Ein Teil des Grundes, warum der anfängliche Empfang von GPT-5 möglicherweise enttäuschend wirkte, ist sein Potenzial, einen Aspekt menschlicher Intelligenz hervorzuheben, der für KI weiterhin schwer fassbar ist: die Fähigkeit, gesunde Beziehungen zu navigieren und aufrechtzuerhalten. Menschen besitzen von Natur aus ein komplexes Verständnis dafür, wie man mit verschiedenen Individuen interagiert – eine Fähigkeit, die ChatGPT noch zu meistern versucht. OpenAI-CEO Sam Altman hat dies kürzlich anerkannt und ein Update auf X gepostet, dass die Persönlichkeit von GPT-5 für ein Update vorgesehen ist, um wärmer, aber weniger ärgerlich als GPT-4o zu wirken. Letztendlich schlug er vor, dass die Zukunft in einer stärkeren Anpassung der KI-Persönlichkeiten pro Nutzer liegt, was auf eine Welt hindeutet, in der unsere digitalen Begleiter uns wirklich verstehen, zu unseren Bedingungen.