Bots de IA replican la polarización humana en redes sociales
Las plataformas sociales en línea como Facebook y X a menudo son culpadas de exacerbar la polarización política y social, pero un estudio reciente sugiere que podrían simplemente amplificar una tendencia humana más profunda e intrínseca. Investigadores de la Universidad de Ámsterdam en los Países Bajos realizaron un experimento revelador, colocando chatbots de inteligencia artificial dentro de una estructura simplificada de redes sociales para observar sus interacciones. Sus hallazgos indicaron que, incluso sin la influencia omnipresente de los algoritmos, estas entidades de IA se organizaron naturalmente basándose en afiliaciones preasignadas, formando rápidamente cámaras de eco digitales.
El estudio, detallado en una preimpresión publicada en arXiv, involucró a 500 chatbots de IA, cada uno impulsado por el modelo de lenguaje grande de OpenAI, GPT-4o mini. A estos bots se les asignaron distintas personalidades y luego se les liberó en una plataforma de redes sociales básica deliberadamente despojada de características comunes como anuncios, algoritmos de descubrimiento de contenido o publicaciones recomendadas. Su única directriz era interactuar entre sí y con el contenido disponible. A lo largo de cinco experimentos distintos, cada uno involucrando 10,000 acciones de los chatbots, surgió un patrón consistente: los bots se sintieron abrumadoramente atraídos y siguieron a otros usuarios que compartían sus “creencias políticas” preprogramadas. Además, aquellos bots que publicaron el contenido más partidista recibieron el mayor compromiso, obteniendo la mayor cantidad de seguidores y republicaciones.
Estos resultados ofrecen una reflexión incómoda sobre el comportamiento humano, dado que los chatbots fueron diseñados para emular cómo interactúan las personas. Si bien el experimento tenía como objetivo aislar el impacto del diseño de la plataforma, es crucial reconocer que los datos de entrenamiento subyacentes de los bots se derivan de décadas de interacción humana en línea, gran parte de la cual ha sido moldeada por entornos dominados por algoritmos. En esencia, estas entidades de IA están imitando patrones de comportamiento en línea preexistentes y profundamente arraigados, lo que plantea preguntas sobre cuán fácilmente se pueden revertir estas tendencias.
Para contrarrestar la polarización por auto-selección observada, los investigadores implementaron varias intervenciones. Estas incluyeron presentar un feed de contenido cronológico, devaluar el contenido viral, ocultar el número de seguidores y republicaciones, ocultar perfiles de usuario e incluso amplificar activamente los puntos de vista opuestos. A pesar de estos esfuerzos, ninguna de las soluciones resultó significativamente efectiva, lo que llevó a un cambio de menos del 6% en el compromiso hacia las cuentas partidistas. En un resultado particularmente revelador, la simulación que ocultó las biografías de los usuarios, paradójicamente, empeoró la división partidista, con publicaciones extremas atrayendo aún mayor atención. Si bien un estudio previo de los mismos investigadores encontró éxito en fomentar un alto compromiso y baja toxicidad al amplificar los puntos de vista opuestos en un entorno simulado, esta intervención específica no produjo resultados positivos similares en la configuración actual.
Las implicaciones del estudio son claras: la estructura misma de las redes sociales puede ser inherentemente desafiante para la interacción humana, pareciendo reforzar nuestros instintos y comportamientos menos deseables. Actúa como un espejo deformante, reflejando a la humanidad de vuelta a sí misma de una manera distorsionada. La investigación sugiere que encontrar “lentes” efectivas lo suficientemente fuertes como para corregir cómo nos percibimos en línea sigue siendo un objetivo esquivo.