La IA y los grupos marginados: Un estudio revela desconfianza

Theconversation

La inteligencia artificial se está integrando rápidamente en el tejido de la vida diaria, operando a menudo discretamente en sectores críticos que van desde diagnósticos de atención médica hasta procesos de contratación e incluso influyendo en las noticias que consume la gente. Sin embargo, esta influencia omnipresente no siempre es equitativa. Una extensa investigación ha revelado consistentemente que el sesgo algorítmico con frecuencia desfavorece a las comunidades marginadas. Por ejemplo, los sistemas de reconocimiento facial comúnmente clasifican erróneamente a individuos transgénero y no binarios; las herramientas de IA utilizadas en la aplicación de la ley se han vinculado a tasas desproporcionadamente altas de arrestos injustificados para personas negras; y los sistemas de diagnóstico algorítmico pueden erigir barreras a la atención médica esencial para individuos con discapacidad.

Estas desigualdades documentadas plantean una pregunta crucial: ¿Las minorías de género y raciales, junto con las personas con discapacidad, albergan percepciones más negativas de la IA en comparación con la población general de EE. UU.? Un estudio reciente dirigido por Oliver L. Haimson, un investigador especializado en cómo las comunidades marginadas interactúan con las tecnologías sociales, buscó responder a esto. Junto con sus colegas Samuel Reiji Mayworm, Alexis Shore Ingber y Nazanin Andalibi, Haimson encuestó a más de 700 individuos en todo EE. UU. La muestra incluyó un grupo representativo a nivel nacional, aumentada por un sobremuestreo intencional de participantes transgénero, no binarios, con discapacidad y de minorías raciales. La encuesta exploró actitudes generales hacia la IA, incluyendo creencias sobre su potencial para mejorar vidas o trabajos, el sentimiento positivo general y las intenciones de uso personal futuro.

Los hallazgos revelan una marcada divergencia en las actitudes. Los participantes transgénero, no binarios y con discapacidad reportaron consistentemente opiniones significativamente más negativas de la IA, en promedio, que sus contrapartes cisgénero y sin discapacidad. Esto sugiere que cuando estas minorías de género e individuos con discapacidad se ven obligados a interactuar con sistemas de IA, como en entornos profesionales o médicos, pueden hacerlo con profundas reservas o desconfianza. Tales resultados desafían directamente la narrativa predominante en la industria tecnológica que presenta a la IA como una fuerza inevitable universalmente beneficiosa para la sociedad. La percepción pública es fundamental para dar forma al desarrollo, la adopción y la regulación de la IA, y si la IA sirve principalmente a aquellos que ya están en el poder, su supuesto papel como bien social se vuelve tenue. Cuando se exige a las personas que usen la IA a pesar de que no les guste o desconfíen de ella, la participación puede disminuir, la confianza puede erosionarse y las inequidades existentes pueden profundizarse.

Profundizando en los detalles del estudio, los participantes no binarios expresaron las actitudes más negativas hacia la IA. Los individuos transgénero en su conjunto, que abarca tanto a hombres trans como a mujeres trans, también exhibieron opiniones significativamente negativas. Entre las personas cisgénero —aquellas cuya identidad de género se alinea con el sexo asignado al nacer—, las mujeres reportaron actitudes más negativas que los hombres, una tendencia que se hace eco de investigaciones anteriores, aunque este estudio expande notablemente el alcance al incluir perspectivas no binarias y trans. De manera similar, los participantes con discapacidad tuvieron opiniones significativamente más negativas de la IA que los participantes sin discapacidad, siendo este sentimiento particularmente pronunciado entre aquellos que son neurodivergentes o manejan condiciones de salud mental. Estos hallazgos se alinean con un creciente cuerpo de investigación que ilustra cómo los sistemas de IA frecuentemente clasifican erróneamente, perpetúan la discriminación o de otra manera dañan a individuos transgénero y con discapacidad, a menudo porque el diseño de la IA, que simplifica la complejidad en categorías rígidas, choca con identidades que desafían tales definiciones estrechas. Esta simplificación inherente puede replicar y reforzar inadvertidamente los sesgos sociales, una realidad de la que los usuarios son muy conscientes.

En contraste con los patrones claros observados con la identidad de género y la discapacidad, el estudio presentó un panorama más complejo en cuanto a la raza. Las personas de color, y los participantes negros en particular, sorprendentemente tuvieron opiniones más positivas hacia la IA que los participantes blancos. Este hallazgo es particularmente intrincado dada la extensa documentación previa del sesgo racial en los sistemas de IA, desde algoritmos de contratación discriminatorios hasta vigilancia desproporcionada. Los autores del estudio sugieren que estos resultados no implican que la IA funcione bien para las comunidades negras. En cambio, pueden reflejar una perspectiva pragmática o una apertura esperanzadora al potencial de la tecnología, incluso frente al daño documentado. Futuras investigaciones cualitativas podrían explorar más a fondo este equilibrio ambivalente de crítica y optimismo entre los individuos negros con respecto a la IA.

Estas disparidades en la percepción de la IA tienen implicaciones significativas tanto para la política como para el desarrollo tecnológico. Si las comunidades marginadas, por razones válidas, no confían en la IA, es imperativo tomar medidas concretas. En primer lugar, los desarrolladores e instituciones deben proporcionar opciones para un consentimiento significativo, requiriendo a empleadores, proveedores de atención médica y otras entidades que revelen cuándo y cómo se está utilizando la IA, y crucialmente, que ofrezcan oportunidades genuinas para que las personas opten por no participar sin penalización. En segundo lugar, son esenciales protecciones sólidas de transparencia de datos y privacidad, que permitan a las personas comprender la fuente de los datos que informan los sistemas de IA, cómo se manejarán sus datos y cómo se salvaguardarán. Tales medidas de privacidad son especialmente vitales para los grupos marginados que ya han experimentado vigilancia algorítmica y uso indebido de datos. Además, durante el desarrollo de sistemas de IA, se deben tomar medidas adicionales para probar y evaluar rigurosamente los impactos en los grupos marginados, lo que podría implicar enfoques de diseño participativo donde las comunidades afectadas contribuyan directamente al diseño del sistema. Si una comunidad expresa oposición a una solución de IA, los desarrolladores deben estar preparados para escuchar sus preocupaciones. En última instancia, las actitudes negativas expresadas por los grupos marginados —aquellos más susceptibles al daño algorítmico— sirven como una señal crítica para que los diseñadores, desarrolladores y formuladores de políticas de IA revalúen fundamentalmente sus esfuerzos. Un futuro construido sobre la IA debe tener en cuenta concienzudamente a las mismas personas a las que la tecnología corre el riesgo de desfavorecer.