KI-Modelle sehen Illusionen, wo keine sind – Ein besorgniserregender Wahrnehmungsfehler

Theregister

Fortschrittliche Künstliche Intelligenz-Modelle mit visuellen Fähigkeiten zeigen eine eigenartige Form der Selbsttäuschung: Sie nehmen optische Täuschungen in Bildern wahr, wo tatsächlich keine existieren. Dieses Phänomen, von Forschern als „Illusion-Illusionen“ bezeichnet, verdeutlicht eine erhebliche Diskrepanz darin, wie diese Systeme visuelle Informationen interpretieren und mit ihrem umfassenden Sprachverständnis in Beziehung setzen.

Ein kürzlich durchgeführtes Experiment, das ein Konzept von Tomer Ullman, außerordentlicher Professor am Psychologischen Institut der Harvard University, nachbildete, demonstrierte dieses Problem anschaulich. Als ein einfaches Bild einer Ente – nicht die berühmte Enten-Kaninchen-Täuschung – präsentiert wurde, identifizierte die aktuelle Version von ChatGPT, angetrieben von GPT-5, es selbstbewusst falsch. Das KI-Modell antwortete: „Es ist die berühmte Enten-Kaninchen-Täuschung, die oft in Psychologie und Philosophie verwendet wird, um Wahrnehmung und ambige Figuren zu illustrieren.“ Obwohl das Bild nur eine Ente enthielt, bot ChatGPT sogar an, beide „Interpretationen“ hervorzuheben, und produzierte eine verzerrte, chimäre Ausgabe.

Ullman beschrieb dieses Verhalten in seinem jüngsten Preprint-Artikel „The Illusion-Illusion: Vision Language Models See Illusions Where There are None“. Er erklärt, dass optische Täuschungen in der Kognitionswissenschaft, Philosophie und Neurowissenschaft unschätzbare Diagnosewerkzeuge sind, weil sie die inhärente Kluft zwischen objektiver Realität und subjektiver Wahrnehmung offenbaren. Ähnlich können sie entscheidende Einblicke in die Funktionsweise von Künstlicher Intelligenz-Systemen bieten. Ullmans Forschung untersucht speziell, ob zeitgenössische Vision Language Modelle bestimmte Bilder fälschlicherweise als optische Täuschungen identifizieren, selbst wenn Menschen sie ohne Mehrdeutigkeit leicht wahrnehmen würden.

Sein Artikel beschreibt zahlreiche Fälle dieser „Illusion-Illusionen“, bei denen KI-Modelle etwas erkennen, das einer bekannten optischen Täuschung ähnelt, das Bild jedoch für menschliche Beobachter keine visuelle Unsicherheit erzeugt. Die umfassende Evaluierung umfasste eine Reihe prominenter Vision Language Modelle: GPT4o, Claude 3, Gemini Pro Vision, miniGPT, Qwen-VL, InstructBLIP, BLIP2 und LLaVA-1.5. In unterschiedlichem Maße zeigten alle von ihnen diese Tendenz, Illusionen wahrzunehmen, wo keine vorhanden waren, wobei keines die menschliche Leistung erreichte.

Die drei getesteten führenden kommerziellen Modelle – GPT-4, Claude 3 und Gemini 1.5 – waren in der Lage, tatsächliche visuelle Täuschungen zu erkennen, identifizierten aber gleichzeitig Illusion-Illusionen falsch. Andere Modelle, wie miniGPT, Qwen-VL, InstructBLIP, BLIP2 und LLaVA-1.5, zeigten gemischtere Ergebnisse. Ullman warnt jedoch davor, dies als überlegene Widerstandsfähigkeit gegen Selbsttäuschung zu interpretieren. Stattdessen führt er ihre unterschiedliche Leistung auf eine allgemein geringere Sehschärfe zurück, was darauf hindeutet, dass diese Modelle insgesamt einfach weniger leistungsfähig bei der Bilderkennung sind, anstatt immun gegen die Wahrnehmung nicht existierender Illusionen zu sein. Die Daten, die Ullmans Erkenntnisse stützen, wurden öffentlich zugänglich gemacht.

Ullman stellt ferner klar, dass dieses Verhalten nicht direkt mit menschlicher Apophenie (dem Sehen von Mustern in zufälligen Daten) oder Pareidolie (dem Wahrnehmen bedeutungsvoller Bilder in mehrdeutigen Reizen) vergleichbar ist. Er unterscheidet es auch von dem häufig verwendeten KI-Begriff „Halluzination“, der seiner Meinung nach seine präzise Bedeutung verloren hat und oft einfach jeden Modellfehler bezeichnet. Stattdessen schlägt Ullman vor, dass der Fehler der KI eher einer menschlichen kognitiven Abkürzung ähnelt: ein neues Problem fälschlicherweise als bekanntes zu identifizieren und eine unangemessene Lösung anzuwenden. Es ist, als ob die Maschine ein Bild fälschlicherweise als Illusion identifiziert und dann auf dieser falschen Prämisse aufbaut.

Unabhängig von der genauen Terminologie betont Ullman, dass diese Trennung zwischen Vision und Sprache in aktuellen KI-Modellen einer genauen Prüfung bedarf, insbesondere angesichts ihres zunehmenden Einsatzes in kritischen Anwendungen wie Robotik und anderen KI-Diensten. Während er die laufende Forschung zu diesen Einschränkungen anerkennt, unterstreicht er die tiefgreifende Besorgnis, sollte man sich auf diese Systeme verlassen, unter der Annahme, dass ihre visuellen und sprachlichen Komponenten nahtlos integriert sind. Der Konsens unter ernsthaften Forschern, so bemerkt er, ist ein nachdrücklicher Aufruf zu einer fortgesetzten, tiefergehenden Untersuchung dieser grundlegenden Fehlinterpretationen.

KI-Modelle sehen Illusionen, wo keine sind – Ein besorgniserregender Wahrnehmungsfehler - OmegaNext KI-Nachrichten