IA imparcial: ¿un mito? Los datos humanos distorsionan nuestra realidad.

Theconversation

En julio, el gobierno de los Estados Unidos emitió una directriz clara: las empresas de inteligencia artificial que busquen contratos federales deben asegurar que sus sistemas de IA sean “objetivos y libres de sesgos ideológicos de arriba hacia abajo”. Este mandato fue subrayado por una orden ejecutiva del presidente Donald Trump, que específicamente apuntaba a la “IA woke” en las operaciones gubernamentales, citando las iniciativas de diversidad, equidad e inclusión (DEI) como ejemplos de ideología sesgada. Sin embargo, el mismo acto de exigir una IA imparcial y al mismo tiempo dictar cómo los modelos deben abordar conceptos como DEI revela una contradicción fundamental, sugiriendo que la noción de una IA ideológicamente neutral es, de hecho, una fantasía.

De hecho, la evidencia de los modelos de IA actuales apoya firmemente esta visión. Numerosos estudios han demostrado que la mayoría de los grandes modelos de lenguaje tienden a sesgar sus respuestas hacia puntos de vista de centro-izquierda, abogando por políticas como impuestos sobre los vuelos, restricciones a los aumentos de alquiler o la legalización del aborto. En contextos autoritarios, el sesgo a menudo es más abiertamente manipulador; los chatbots chinos como DeepSeek y Qwen son conocidos por censurar información sobre temas sensibles como los eventos de la Plaza de Tiananmén, el estatus político de Taiwán y la persecución de los uigures, alineando sus resultados precisamente con la postura oficial del gobierno chino. Estos ejemplos subrayan que los modelos de IA no son ni políticamente neutrales ni están libres de sesgos, lo que plantea una pregunta más profunda: ¿es posible que sean verdaderamente imparciales?

A lo largo de la historia, los intentos humanos de organizar información sobre el mundo han revelado consistentemente que lo que una persona considera verdad objetiva, otra lo percibe como sesgo ideológico. Considere el campo de la cartografía. Si bien a menudo se asume que los mapas son reflejos objetivos del mundo natural, el acto mismo de aplanar un globo tridimensional sobre una superficie bidimensional introduce inherentemente distorsión. El geógrafo estadounidense Mark Monmonier argumentó famosamente que los mapas son necesariamente selectivos, distorsionando la realidad y a menudo sirviendo como herramientas de propaganda política. Un ejemplo principal es la ubicua proyección de Mercator, comúnmente vista en las aulas de primaria. Este mapa convierte el globo en un cilindro y luego lo aplana, haciendo que Groenlandia parezca del mismo tamaño que África. En realidad, África es asombrosamente 14 veces más grande que Groenlandia. En la década de 1970, el historiador alemán Arno Peters sostuvo que las distorsiones de Mercator contribuían a una percepción sesgada de la inferioridad del Sur global. Estas distorsiones cartográficas ofrecen una analogía convincente para el estado actual de la IA: así como un solo mapa es solo una de las innumerables representaciones posibles de los mismos datos, la respuesta de un solo modelo de lenguaje grande es meramente una de un número infinito de respuestas potenciales derivadas de la misma información. Esto se vuelve particularmente evidente cuando se le pregunta a un chatbot sobre un tema complejo como la diversidad, la equidad y la inclusión, donde son posibles innumerables interpretaciones.

Más allá de los mapas, otros sistemas de clasificación históricos también demuestran la marca indeleble de los sesgos de sus diseñadores. El sistema de Clasificación Decimal Dewey (CDD) para bibliotecas, ampliamente adoptado y publicado por primera vez en 1876, ha sido criticado durante mucho tiempo por su racismo y homofobia inherentes. Durante gran parte del siglo XX, los libros LGBTQIA+ a menudo se categorizaban bajo epígrafes como “Trastornos mentales”, “Trastornos neurológicos” o “Problemas sociales”, y solo recientemente se han realizado esfuerzos para eliminar estos términos anticuados y despectivos. De manera similar, el CDD asigna aproximadamente 65 de 100 secciones sobre religión al cristianismo, lo que refleja el fuerte enfoque cristiano de la biblioteca donde se originó. Esta desproporción persiste a pesar de que el islam tiene un estimado de 2 mil millones de seguidores a nivel mundial hoy, comparable a los 2.3 mil millones del cristianismo, y sin embargo recibe solo una sección en el CDD.

Los sesgos incrustados en estos sistemas históricos encuentran un paralelo moderno en la IA. Los grandes modelos de lenguaje que impulsan los chatbots actuales se entrenan con vastos conjuntos de datos de texto generados por humanos, que van desde la literatura histórica hasta los foros en línea contemporáneos. Como era de esperar, los sesgos presentes en estos textos fuente pueden filtrarse inadvertidamente en los modelos, perpetuando estereotipos negativos, como los relacionados con los afroamericanos de la década de 1930. Además, la información bruta por sí sola es insuficiente; los modelos de lenguaje deben ser entrenados sobre cómo recuperar y presentar esta información. Esto a menudo implica aprender a imitar las respuestas humanas, un proceso que, si bien mejora la utilidad, también alinea los modelos con las creencias de sus entrenadores humanos. Los chatbots de IA también dependen de “prompts del sistema”, instrucciones definidas por desarrolladores humanos que dictan cómo debe comportarse la IA. Por ejemplo, Grok, el chatbot de IA desarrollado por xAI de Elon Musk, supuestamente se instruye a sí mismo para “asumir que los puntos de vista subjetivos obtenidos de los medios están sesgados” y para “no rehuir hacer afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas”. Musk lanzó Grok explícitamente para contrarrestar lo que él percibía como el “sesgo liberal” de otros productos como ChatGPT. Sin embargo, la reciente controversia cuando Grok comenzó a proferir retórica antisemita ilustra vívidamente que los intentos de corregir un sesgo a menudo simplemente lo reemplazan por otro.

En última instancia, a pesar de toda su innovación tecnológica, los modelos de lenguaje de IA se enfrentan a un problema centenario: organizar y presentar información nunca es únicamente un reflejo objetivo de la realidad; siempre es, hasta cierto punto, una proyección de una cosmovisión específica. Para los usuarios que interactúan con estos potentes sistemas, comprender qué cosmovisión representan estos modelos es tan crucial como saber quién dibujó las líneas en un mapa antiguo.