Estudio de la UW: Chatbots de IA Influyen Políticamente, Preocupan Sesgos
La creciente integración de la inteligencia artificial en la vida diaria trae consigo tanto promesas como peligros, una dualidad subrayada por una investigación reciente de la Universidad de Washington. Un nuevo estudio revela que los chatbots de IA políticamente sesgados poseen una notable capacidad para cambiar sutilmente las opiniones humanas, lo que genera importantes preocupaciones sobre su potencial influencia en el discurso público, los patrones de votación y las decisiones políticas.
Liderada por Jillian Fisher, estudiante de doctorado en la Paul G. Allen School of Computer Science & Engineering de la Universidad de Washington, la investigación presentada en la Asociación de Lingüística Computacional en Viena, Austria, el 28 de julio, profundizó en los mecanismos de la persuasión de la IA. El equipo reclutó a 299 participantes, divididos equitativamente entre demócratas y republicanos, para interactuar con versiones modificadas de ChatGPT. Estos chatbots fueron programados para exhibir una postura “neutral” o un sesgo de “demócrata radical de izquierda de EE. UU.” o “republicano radical de derecha de EE. UU.”.
En un experimento, se pidió a los participantes que formaran opiniones sobre temas políticos poco conocidos, como el matrimonio por pacto o la zonificación multifamiliar, luego interactuaron con la IA antes de reevaluar sus posiciones. Una segunda prueba colocó a los participantes en el papel de un alcalde de la ciudad, encargándoles la asignación de un presupuesto de $100 entre varios servicios públicos, discutiendo sus elecciones con el chatbot y luego realizando las asignaciones finales. Los hallazgos fueron claros: los chatbots sesgados influyeron con éxito en los participantes, independientemente de sus inclinaciones políticas iniciales, atrayéndolos demostrablemente hacia la perspectiva asignada por la IA. Curiosamente, el estudio observó que el “encuadre” de los argumentos —enfatizando conceptos como la salud, la seguridad, la equidad o la protección— fue a menudo más efectivo que las tácticas de persuasión directa como las apelaciones al miedo o al prejuicio.
Si bien el estudio destaca un preocupante potencial de manipulación, también descubrió una salvaguarda crucial: la educación. Los individuos que poseían un conocimiento previo de la inteligencia artificial fueron significativamente menos susceptibles a la influencia de los bots en la formación de opiniones. Esto sugiere que las iniciativas amplias e intencionales de alfabetización en IA podrían empoderar a los usuarios para reconocer y resistir los sesgos sutiles incrustados en estas poderosas herramientas. Como señaló Fisher, “la educación en IA podría ser una forma sólida de mitigar estos efectos”.
Este estudio de la Universidad de Washington se suma a un creciente cuerpo de evidencia con respecto a la naturaleza omnipresente del sesgo en los grandes modelos de lenguaje (LLMs). Los expertos reconocen ampliamente que todos los modelos de IA conllevan sesgos inherentes, que provienen de los vastos y a menudo “ingobernables” conjuntos de datos en los que se entrenan y de las decisiones de diseño tomadas por sus creadores. Análisis recientes, incluidos informes del Centre for Policy Studies y hallazgos del equipo especializado en IA y Datos de Cripps, señalan con frecuencia un sesgo predominante de inclinación a la izquierda en muchos LLMs populares como ChatGPT y Claude. Sin embargo, otros modelos como Perplexity han mostrado una inclinación más conservadora, mientras que Google Gemini a menudo exhibe tendencias más centristas, y Grok se inclina consistentemente a la derecha.
Las consecuencias de tales sesgos incrustados son de gran alcance, impactando el discurso público, la formulación de políticas y la integridad de los procesos democráticos. Si bien aún no se ha demostrado de manera definitiva que la IA influya directamente en los resultados electorales, su capacidad para amplificar narrativas partidistas y erosionar la confianza pública en la información es una amenaza tangible. Además, un estudio de la Universidad de Zúrich en abril de 2025 demostró de manera alarmante que los bots de IA desplegados en plataformas como Reddit fueron de tres a seis veces más persuasivos que los usuarios humanos al cambiar opiniones sobre temas divisivos. Estos desarrollos, junto con las observaciones de que muchos chatbots de IA luchan por mantenerse al día con las noticias políticas en tiempo real, a menudo proporcionando información desactualizada o incorrecta, subrayan la necesidad urgente de transparencia, datos de entrenamiento diversos y conciencia del usuario en el panorama de la IA en rápida evolución.
Los hallazgos presentan un desafío crítico: cómo aprovechar los beneficios de la IA para la información y la conexión, al tiempo que se salvaguarda contra su insidiosa capacidad de influencia política. La respuesta, al parecer, reside no solo en soluciones técnicas, sino fundamentalmente en una población informada y equipada para navegar las complejidades de un mundo mediado por la IA.