IA en Australia: ¿Avance o amenaza de discriminación?

Theguardian

La rápida integración de la inteligencia artificial en la sociedad australiana, si bien promete importantes ganancias de productividad, conlleva un grave riesgo de exacerbar las desigualdades sociales existentes, según una contundente advertencia de la Comisionada de Derechos Humanos de la nación. Mientras el gobierno federal se prepara para discutir el potencial económico de la IA en una próxima cumbre, un coro creciente de voces, incluidos sindicatos y organismos de la industria, está haciendo sonar las alarmas sobre el potencial de la tecnología para afianzar el racismo y el sexismo si se deja sin regular.

La Comisionada de Derechos Humanos, Lorraine Finlay, ha advertido que la búsqueda de beneficios económicos de la IA no debe ir en detrimento de un aumento de la discriminación. Destaca una crítica falta de transparencia en los conjuntos de datos utilizados para entrenar las herramientas de IA, lo que dificulta la identificación y mitigación de los sesgos inherentes. Finlay explicó que el “sesgo algorítmico” significa que la injusticia está incorporada directamente en la tecnología, lo que lleva a resultados sesgados. Esto se agrava por el “sesgo de automatización”, donde los humanos dependen cada vez más de las decisiones de las máquinas, lo que podría pasar por alto o incluso reforzar patrones discriminatorios sin una conciencia consciente. La comisión ha abogado constantemente por una Ley de IA dedicada, junto con el fortalecimiento de la legislación existente como la Ley de Privacidad, e implementando pruebas rigurosas para detectar sesgos en los sistemas de IA. Finlay instó al gobierno a establecer rápidamente nuevas salvaguardias legislativas, enfatizando la necesidad de pruebas de sesgos, auditorías y una sólida supervisión humana.

Las preocupaciones de la comisionada surgen en medio de un debate interno dentro del partido Laborista sobre el enfoque óptimo para la gobernanza de la IA. La senadora Michelle Ananda-Rajah, exmédica e investigadora de IA, se ha desviado notablemente de algunas líneas del partido, proponiendo que todos los datos australianos deberían ser “liberados” a las empresas tecnológicas. Su razón es entrenar modelos de IA con datos locales diversos, evitando así la perpetuación de sesgos extranjeros y reflejando mejor la vida y la cultura australianas. Si bien Ananda-Rajah se opone a una Ley de IA dedicada, cree firmemente que los creadores de contenido deben ser compensados por su trabajo utilizado en el entrenamiento de la IA. Argumenta que sin abrir los datos domésticos, Australia corre el riesgo de “alquilar” perpetuamente modelos de IA de gigantes tecnológicos internacionales, careciendo de supervisión o conocimiento sobre su funcionamiento.

La evidencia del sesgo de la IA ya está aumentando, tanto a nivel nacional como internacional. Los estudios han revelado resultados discriminatorios en áreas críticas como la medicina y la contratación laboral. Por ejemplo, un estudio australiano publicado en mayo encontró que los candidatos a puestos de trabajo entrevistados por reclutadores de IA enfrentaban una posible discriminación basada en su acento o si vivían con una discapacidad. Ananda-Rajah citó la detección de cáncer de piel como otro ejemplo donde el sesgo algorítmico en las herramientas de IA podría llevar a un tratamiento desigual de los pacientes, enfatizando la necesidad de entrenar modelos con datos australianos completos y diversos, al tiempo que se salvaguarda la información sensible.

Mientras que la “liberación” de datos es vista por algunos como parte de la solución, otros expertos subrayan la necesidad de un enfoque multifacético. Judith Bishop, experta en IA de la Universidad La Trobe, reconoce que más datos australianos podrían mejorar el entrenamiento de la IA, advirtiendo contra la dependencia excesiva de los modelos estadounidenses entrenados con conjuntos de datos extranjeros. Sin embargo, ella enfatiza que esto es solo un componente de una solución más amplia. De manera similar, la Comisionada de eSafety, Julie Inman Grant, ha expresado su preocupación por la falta de transparencia en los datos de entrenamiento de la IA. Pide a las empresas tecnológicas que sean transparentes sobre sus fuentes de datos, desarrollen herramientas de informes sólidas y se aseguren de que sus productos utilicen datos diversos, precisos y representativos. Inman Grant destacó la “opacidad del desarrollo de la IA generativa” como profundamente problemática, lo que genera temores de que los grandes modelos de lenguaje puedan “amplificar, incluso acelerar, sesgos dañinos, incluidas normas de género estrechas o dañinas y prejuicios raciales”, especialmente dada la concentración del desarrollo en unas pocas empresas, lo que arriesga la marginación de ciertas voces y perspectivas.

El sentimiento general entre estos expertos es que, si bien la IA ofrece un potencial inmenso, su desarrollo e implementación en Australia exigen una atención regulatoria urgente, un compromiso con la diversidad de datos y una transparencia inquebrantable para garantizar que sirva a todos los australianos de manera justa y equitativa, en lugar de profundizar las divisiones existentes. Las discusiones en curso en la cumbre económica federal y dentro de los círculos políticos reflejan el creciente reconocimiento de que navegar el futuro de la IA requiere un cuidadoso equilibrio entre la innovación y la responsabilidad ética, particularmente en lo que respecta a la propiedad intelectual y la protección de la privacidad, que los grupos de medios y arte temen que estén bajo amenaza de “robo desenfrenado”.