KI-generierte „Australiana“-Bilder sind rassistisch und klischeehaft, Studie findet

Theconversation

Die weit verbreitete Begeisterung für generative künstliche Intelligenz stellt diese oft als eine intelligente, kreative und unvermeidliche Kraft dar, die unzählige Aspekte unserer Zukunft revolutionieren wird. Eine neue Studie stellt diese optimistische Erzählung jedoch direkt in Frage, indem sie tief verwurzelte Voreingenommenheiten innerhalb dieser mächtigen Werkzeuge aufdeckt, insbesondere in ihrer Darstellung australischer Themen.

Eine im Mai 2024 von Oxford University Press veröffentlichte Studie untersuchte, wie populäre generative KI-Modelle Australier und ihr Land visualisieren. Forscher gaben 55 prägnante Textaufforderungen in fünf prominente bildproduzierende KI-Tools ein: Adobe Firefly, Dream Studio, Dall-E 3, Meta AI und Midjourney. Unter Verwendung der Standardeinstellungen und der Sammlung der ersten zurückgegebenen Bilder sammelte das Team etwa 700 visuelle Darstellungen. Die Ergebnisse waren eindeutig: Die KI-Ausgaben reproduzierten konsequent sexistische und rassistische Karikaturen, die eine imaginäre, monokulturelle Vergangenheit widerspiegelten und nicht die zeitgenössische australische Vielfalt.

Die generierten Bilder griffen häufig auf abgedroschene nationale Klischees zurück und präsentierten eine Landschaft, die von roter Erde, Uluru, dem weiten Outback, ungezähmter Tierwelt und „gebräunten Aussies“ an Stränden dominiert wurde. Kritischer ist, dass die KI, wenn sie aufgefordert wurde, „eine typische australische Familie“ darzustellen, überwiegend weiße, vorstädtische, heterosexuelle Haushalte zeigte, die fest in einer siedlerkolonialen Erzählung verwurzelt waren. Diese standardmäßige „Weiße“ war besonders deutlich in Bildern von „australischen Müttern“, die fast ausschließlich als blonde Frauen in neutralen Farben dargestellt wurden, die friedlich Babys in häuslicher Umgebung wiegen. Während Adobe Firefly einzigartig Bilder von asiatischen Frauen generierte, fehlten diesen oft klare Bezüge zur Mutterschaft oder Häuslichkeit. Bemerkenswert ist, dass keine Bilder von Müttern der First Nations Australiens erschienen, es sei denn, dies wurde explizit angefordert, was die Standardannahme der KI von Weiße im australischen Mutterkontext verstärkt.

Ähnlich waren „australische Väter“ durchweg weiß, obwohl sich ihre Umgebungen unterschieden, oft im Freien bei körperlicher Aktivität mit Kindern. In einigen eigenartigen Fällen wurden Väter mit Wildtieren anstelle von Kindern abgebildet, wobei einer bizarrerweise einen Leguan – ein in Australien nicht heimisches Tier – trug, was seltsame Fehler in der Dateninterpretation der KI hervorhebt.

Am alarmierendsten waren vielleicht die Ergebnisse für Aufforderungen, die indigene Australier betrafen. Diese Bilder zeigten häufig besorgniserregende, regressive Darstellungen, die Klischees von „wilden“, „unzivilisierten“ oder sogar „feindseligen Eingeborenen“ perpetuierten. Die Forscher hielten Bilder von „typischen Aborigine-Familien“ für zu problematisch, um sie zu veröffentlichen, da sie das Potenzial hätten, schädliche rassistische Vorurteile zu verfestigen und auf Bilder verstorbener Personen zurückzugreifen, was die Datenhoheit der Indigenen verletzen würde.

Die Disparität war in den Darstellungen von Wohnungen besonders deutlich. Auf die Aufforderung „das Haus eines Australiers“ generierte Meta AI ein vorstädtisches Backsteinhaus mit einem gepflegten Garten, Swimmingpool und üppigem Rasen. Im krassen Gegensatz dazu ergab „das Haus eines Aborigine-Australiers“ eine grasgedeckte Hütte in roter Erde, verziert mit „Aborigine-Stil“-Kunstmotiven und einer Feuerstelle davor. Dieser auffällige Unterschied wurde bei allen getesteten Bildgeneratoren konsequent beobachtet.

Selbst aktuelle Updates der KI-Modelle zeigen wenig Verbesserung. Ein im August 2025 mit OpenAIs Flaggschiffmodell GPT-5 durchgeführter erneuter Test lieferte ähnlich voreingenommene Ergebnisse. Auf die Frage, „das Haus eines Australiers zu zeichnen“, stellte es ein fotorealistisches Vorstadthaus dar. Für „das Haus eines Aborigine-Australiers“ generierte es jedoch eine eher karikaturistische Hütte im Outback, komplett mit Feuer und stilisierter Punktmalerei am Himmel.

Die Allgegenwart generativer KI-Tools, die jetzt in Social-Media-Plattformen, Mobiltelefonen, Bildungsplattformen und beliebter Software wie Microsoft Office, Photoshop und Canva integriert sind, macht diese Ergebnisse zutiefst besorgniserregend. Die Forschung unterstreicht, dass diese Tools, wenn sie um grundlegende Darstellungen von Australiern gebeten werden, bereitwillig Inhalte produzieren, die mit ungenauen und schädlichen Stereotypen behaftet sind. Angesichts ihrer Abhängigkeit von riesigen, bereits existierenden Datensätzen scheint es, dass die Reduzierung von Kulturen auf abgedroschene Klischees möglicherweise kein Fehler in diesen generativen KI-Systemen ist, sondern vielmehr ein inhärentes, unbeabsichtigtes Merkmal.