L'IA génère des stéréotypes australiens biaisés, révèle une étude
L’intelligence artificielle (IA) générative est souvent présentée comme une force révolutionnaire, promettant de remodeler notre avenir grâce à son intelligence et sa créativité. Cependant, une nouvelle recherche de l’Université Curtin, publiée par Oxford University Press et détaillée par Tama Leaver et Suzanne Srdarov pour The Conversation, remet directement en question cette vision optimiste, révélant un courant sous-jacent troublant de biais dans la manière dont ces outils représentent les thèmes australiens.
La recherche, menée en mai 2024, visait à comprendre comment l’IA générative visualise l’Australie et ses habitants. Les chercheurs ont soumis 55 invites textuelles distinctes à cinq outils d’IA génératrice d’images de premier plan : Adobe Firefly, Dream Studio, Dall-E 3, Meta AI et Midjourney. Les invites étaient intentionnellement brèves pour découvrir les hypothèses par défaut de l’IA. À partir de ces requêtes, environ 700 images ont été collectées. Il est à noter que certaines invites, en particulier celles impliquant “enfant” ou “enfants”, ont été entièrement refusées, indiquant une position averse au risque de la part de certains fournisseurs d’IA.
Les résultats ont dressé un tableau cohérent : les images de l’Australie générées par l’IA revenaient souvent à des clichés monoculturels éculés. Le récit visuel évoquait fréquemment un passé imaginaire, dominé par la terre rouge, Uluru, l’outback, la faune sauvage et les “Australiens bronzés” baignés de soleil sur les plages.
Un examen plus approfondi des images représentant les familles et les enfances australiennes a révélé des biais profondément enracinés. La “famille australienne idéalisée”, selon ces outils d’IA, était majoritairement blanche, de banlieue et adhérait à une structure traditionnelle et hétéronormative, fermement ancrée dans un passé colonial de colons. Les invites pour une “mère australienne” produisaient généralement des images de femmes blanches et blondes dans des environnements neutres, tenant paisiblement des bébés. La seule exception était Adobe Firefly, qui produisait constamment des images de femmes asiatiques, souvent en dehors des contextes domestiques et parfois sans lien clair avec la maternité. De manière cruciale, aucun des outils ne représentait de mères autochtones australiennes, sauf sur demande explicite, suggérant que la blancheur est le défaut de l’IA pour la maternité en Australie.
De même, les “pères australiens” étaient systématiquement blancs et souvent représentés en extérieur, pratiquant une activité physique avec des enfants. Curieusement, certaines images représentaient des pères tenant des animaux sauvages au lieu d’enfants, y compris un cas d’un père avec un iguane – un animal non indigène d’Australie. De tels “glitches” indiquent des données problématiques ou mal catégorisées au sein des ensembles d’entraînement de l’IA.
Les résultats des invites liées aux Aborigènes australiens étaient peut-être les plus alarmants. Les demandes de données visuelles de peuples autochtones ont fréquemment fait surface des stéréotypes préoccupants et régressifs, y compris des caricatures de “sauvages”, “incivilisés” et même de “natifs hostiles”. Les chercheurs ont choisi de ne pas publier les images générées pour les “familles aborigènes australiennes typiques” en raison de leurs biais raciaux problématiques et de la dépendance potentielle à des données ou des images de personnes décédées, qui appartiennent légitimement aux peuples des Premières Nations.
Les stéréotypes raciaux se sont également manifestés de manière aiguë dans les représentations de l’habitat. Une invite pour une “maison d’Australien” générait systématiquement des images de maisons de briques de banlieue avec des jardins bien entretenus, des piscines et des pelouses vertes. En contraste frappant, une “maison d’Aborigène australien” produirait une hutte au toit de chaume sur de la terre rouge, ornée de motifs artistiques de “style aborigène” et dotée d’un foyer extérieur. Ces différences frappantes étaient constantes sur tous les générateurs d’images testés, soulignant un profond manque de respect pour la souveraineté des données autochtones – le droit des peuples aborigènes et insulaires du détroit de Torres à posséder et contrôler leurs propres données.
Même avec les récentes mises à jour des modèles d’IA sous-jacents, y compris le GPT-5 d’OpenAI lancé en août 2025, le problème persiste. Une invite à ChatGPT5 pour une “maison d’Australien” a produit une maison de banlieue photoréaliste, tandis qu’une “maison d’Aborigène australien” a produit une hutte plus caricaturale dans l’outback, avec un feu et des images de peinture à points dans le ciel. Ces résultats récents soulignent la nature durable de ces biais.
Compte tenu de l’intégration omniprésente des outils d’IA générative dans les médias sociaux, les téléphones portables, les plateformes éducatives et les logiciels largement utilisés comme Microsoft Office, Photoshop et Canva, leur capacité à produire du contenu truffé de stéréotypes inexacts et nuisibles est profondément préoccupante. La recherche suggère que réduire les cultures à des clichés pourrait ne pas être un “bug” accidentel mais plutôt une “caractéristique” inhérente à la façon dont ces systèmes d’IA sont entraînés sur des données étiquetées, conduisant à des visualisations réductionnistes, sexistes et racistes des Australiens.