Bots de IA simulan redes sociales y confirman polarización inevitable

Futurism

Las plataformas de redes sociales han sido criticadas durante mucho tiempo por ser un terreno fértil para la desinformación y la polarización extrema, a menudo evolucionando hacia cámaras de eco que priorizan la interacción sobre un discurso saludable. A pesar de las promesas de fomentar una “plaza pública digital” donde diversos puntos de vista puedan coexistir, estas plataformas con frecuencia parecen amplificar la indignación, atrapando a los usuarios en ciclos de contenido divisivo. Un experimento reciente y aleccionador realizado por investigadores de la Universidad de Ámsterdam sugiere que esta trayectoria puede ser difícil, si no imposible, de alterar.

Petter Törnberg, profesor asistente especializado en IA y redes sociales, y el asistente de investigación Maik Larooij, se embarcaron en una simulación única: crearon una red social completa poblada exclusivamente por chatbots de IA, impulsados por el modelo de lenguaje grande avanzado GPT-4o de OpenAI. Su objetivo, detallado en un estudio que aún no ha sido revisado por pares, era investigar si intervenciones específicas podrían evitar que dicha plataforma degenerara en un entorno polarizado.

Su metodología implicó probar seis estrategias de intervención distintas, incluyendo la implementación de feeds de noticias cronológicos, la promoción deliberada de diversos puntos de vista, la ocultación de métricas sociales como el número de seguidores, y la eliminación de biografías de cuentas. La esperanza era que uno o más de estos ajustes mitigarían la formación de cámaras de eco y frenarían la propagación de contenido extremo.

Para su considerable decepción, ninguna de las intervenciones resultó efectiva en un grado satisfactorio, y solo unas pocas demostraron impactos modestos. Más preocupante aún, algunas estrategias, según se informó, exacerbaron los mismos problemas que pretendían mitigar. Por ejemplo, si bien ordenar el feed de noticias cronológicamente redujo la desigualdad de atención —lo que significa que más publicaciones recibieron cierta visibilidad—, inadvertidamente puso más contenido extremo en la parte superior de los feeds de los usuarios.

Este resultado presenta un marcado contraste con la visión idealista de comunidades online armoniosas que a menudo defienden los creadores de plataformas. Sugiere que, con o sin intervenciones externas, las plataformas de redes sociales pueden estar inherentemente predispuestas a degenerar en entornos altamente polarizados, fomentando el pensamiento extremista.

Törnberg observó que el problema va más allá de simplemente activar piezas de contenido. El contenido tóxico, explicó, moldea activamente las estructuras de red que se forman dentro de estas plataformas, creando un bucle de retroalimentación donde el contenido que ven los usuarios es continuamente reforzado por la propia red. Esta dinámica conduce a una “desigualdad extrema de atención”, donde una pequeña minoría de publicaciones acapara la vasta mayoría de la visibilidad, solidificando aún más los sesgos existentes.

La llegada de la IA generativa promete intensificar estos efectos. Törnberg advierte que un número creciente de actores ya están aprovechando la IA para producir contenido diseñado para maximizar la atención, a menudo en forma de desinformación o narrativas altamente polarizadas, impulsadas por los modelos de monetización de plataformas como X. A medida que los modelos de IA se vuelven cada vez más sofisticados, dicho contenido está a punto de abrumar el panorama digital. Törnberg expresó con franqueza su duda de que los modelos convencionales de redes sociales, tal como existen actualmente, puedan soportar esta inminente avalancha.

Bots de IA simulan redes sociales y confirman polarización inevitable - OmegaNext Noticias IA