IA genera estereotipos australianos sesgados, revela nueva investigación

Theguardian

La inteligencia artificial (IA) generativa a menudo se promociona como una fuerza revolucionaria, prometiendo remodelar nuestro futuro con su inteligencia y creatividad. Sin embargo, una nueva investigación de la Universidad de Curtin, publicada por Oxford University Press y detallada por Tama Leaver y Suzanne Srdarov para The Conversation, desafía directamente esta visión optimista, revelando una inquietante corriente de sesgo en cómo estas herramientas representan temas australianos.

La investigación, realizada en mayo de 2024, se propuso comprender cómo la IA generativa visualiza Australia y su gente. Los investigadores plantearon 55 indicaciones de texto distintas a cinco herramientas líderes de IA de generación de imágenes: Adobe Firefly, Dream Studio, Dall-E 3, Meta AI y Midjourney. Las indicaciones fueron intencionalmente breves para descubrir las suposiciones predeterminadas de la IA. De estas consultas, se recopilaron aproximadamente 700 imágenes. Cabe destacar que algunas indicaciones, particularmente las que involucraban “niño” o “niños”, fueron rechazadas por completo, lo que indica una postura aversa al riesgo por parte de algunos proveedores de IA.

Los hallazgos pintaron un cuadro consistente: las imágenes de Australia generadas por IA a menudo revertían a tropos monoculturales y anticuados. La narrativa visual evocaba con frecuencia un pasado imaginado, dominado por la tierra roja, Uluru, el interior, la vida silvestre indómita y los “australianos bronceados” besados por el sol en las playas.

Un examen más detenido de las imágenes que representaban a familias y niños australianos reveló sesgos profundamente arraigados. La “familia australiana idealizada”, según estas herramientas de IA, era abrumadoramente blanca, suburbana y se adhería a una estructura tradicional y heteronormativa, firmemente arraigada en un pasado colonial de colonos. Las indicaciones para una “madre australiana” típicamente producían imágenes de mujeres blancas y rubias en entornos neutros, sosteniendo pacíficamente bebés. La única excepción fue Adobe Firefly, que consistentemente produjo imágenes de mujeres asiáticas, a menudo fuera de entornos domésticos y a veces sin una conexión clara con la maternidad. Crucialmente, ninguna de las herramientas representó a madres aborígenes australianas a menos que se les indicara explícitamente, lo que sugiere que la blancura es el valor predeterminado de la IA para la maternidad en Australia.

De manera similar, los “padres australianos” eran consistentemente blancos y a menudo se los retrataba al aire libre, participando en actividad física con niños. Curiosamente, algunas imágenes mostraban a padres sosteniendo vida silvestre en lugar de niños, incluyendo una instancia de un padre con una iguana, un animal no nativo de Australia. Tales “fallos” apuntan a datos problemáticos o mal categorizados dentro de los conjuntos de entrenamiento de la IA.

Quizás lo más alarmante fueron los resultados de las indicaciones relacionadas con los aborígenes australianos. Las solicitudes de datos visuales de pueblos indígenas frecuentemente revelaron estereotipos preocupantes y regresivos, incluyendo caricaturas de “salvajes”, “incivilizados” e incluso “nativos hostiles”. Los investigadores optaron por no publicar imágenes generadas para “familias aborígenes australianas típicas” debido a sus problemáticos sesgos raciales y la posible dependencia de datos o imágenes de personas fallecidas, que legítimamente pertenecen a los pueblos de las Primeras Naciones.

El estereotipo racial también se manifestó agudamente en las representaciones de viviendas. Una indicación para una “casa de australiano” consistentemente generó imágenes de casas de ladrillo suburbanas con jardines bien cuidados, piscinas y césped verde. En marcado contraste, una “casa de aborigen australiano” produciría una cabaña con techo de paja en tierra roja, adornada con motivos artísticos de “estilo aborigen” y con una fogata al aire libre. Estas sorprendentes diferencias fueron consistentes en todos los generadores de imágenes probados, destacando una profunda falta de respeto por la Soberanía de Datos Indígenas, el derecho de los pueblos aborígenes e isleños del Estrecho de Torres a poseer y controlar sus propios datos.

Incluso con las actualizaciones recientes de los modelos de IA subyacentes, incluido GPT-5 de OpenAI lanzado en agosto de 2025, el problema persiste. Una indicación a ChatGPT5 para una “casa de australiano” produjo una casa suburbana fotorrealista, mientras que una “casa de aborigen australiano” produjo una cabaña más caricaturesca en el interior, completa con un fuego e imágenes de pintura de puntos en el cielo. Estos resultados recientes subrayan la naturaleza duradera de estos sesgos.

Dada la integración generalizada de las herramientas de IA generativa en las redes sociales, teléfonos móviles, plataformas educativas y software ampliamente utilizado como Microsoft Office, Photoshop y Canva, su capacidad para producir contenido plagado de estereotipos inexactos y dañinos es profundamente preocupante. La investigación sugiere que reducir las culturas a clichés podría no ser un “error” accidental, sino más bien una “característica” inherente de cómo estos sistemas de IA son entrenados con datos etiquetados, lo que lleva a visualizaciones reduccionistas, sexistas y racistas de los australianos.