Des bots IA simulent les réseaux sociaux et confirment une polarisation inévitable
Les plateformes de médias sociaux sont depuis longtemps critiquées comme un terreau fertile pour la désinformation et la polarisation extrême, évoluant souvent en chambres d’écho qui privilégient l’engagement au détriment d’un discours sain. Malgré les promesses de favoriser une “place publique numérique” où divers points de vue peuvent coexister, ces plateformes semblent fréquemment amplifier l’indignation, piégeant les utilisateurs dans des cycles de contenu clivant. Une expérience récente et édifiante menée par des chercheurs de l’Université d’Amsterdam suggère que cette trajectoire pourrait être difficile, voire impossible, à modifier.
Petter Törnberg, professeur adjoint spécialisé en IA et médias sociaux, et l’assistant de recherche Maik Larooij se sont lancés dans une simulation unique : ils ont créé un réseau social entier peuplé exclusivement de chatbots IA, alimentés par le modèle de langage avancé GPT-4o d’OpenAI. Leur objectif, détaillé dans une étude qui n’a pas encore fait l’objet d’un examen par les pairs, était d’étudier si des interventions spécifiques pouvaient empêcher une telle plateforme de dégénérer en un environnement polarisé.
Leur méthodologie a consisté à tester six stratégies d’intervention distinctes, y compris l’implémentation de fils d’actualité chronologiques, la promotion délibérée de points de vue diversifiés, la dissimulation de métriques sociales comme le nombre d’abonnés, et la suppression des biographies de compte. L’espoir était qu’un ou plusieurs de ces ajustements atténueraient la formation de chambres d’écho et freineraient la propagation de contenus extrêmes.
À leur grande déception, aucune des interventions ne s’est avérée efficace à un degré satisfaisant, seules quelques-unes ayant démontré des impacts modestes. Plus préoccupant encore, certaines stratégies auraient exacerbé les problèmes mêmes qu’elles visaient à atténuer. Par exemple, bien que l’ordonnancement chronologique du fil d’actualité ait réduit l’inégalité d’attention — ce qui signifie que plus de publications ont reçu une certaine visibilité — il a involontairement mis davantage de contenu extrême au premier plan des fils d’actualité des utilisateurs.
Ce résultat contraste fortement avec la vision idéaliste de communautés en ligne harmonieuses souvent défendue par les créateurs de plateformes. Il suggère que, avec ou sans interventions externes, les plateformes de médias sociaux pourraient être intrinsèquement prédisposées à dégénérer en environnements hautement polarisés, favorisant la pensée extrémiste.
Törnberg a observé que le problème va au-delà du simple déclenchement de contenus. Le contenu toxique, a-t-il expliqué, façonne activement les structures de réseau qui se forment au sein de ces plateformes, créant une boucle de rétroaction où le contenu que les utilisateurs voient est continuellement renforcé par le réseau lui-même. Cette dynamique conduit à une “inégalité extrême d’attention”, où une infime minorité de publications recueille la grande majorité de la visibilité, solidifiant davantage les biais existants.
L’avènement de l’IA générative promet d’intensifier ces effets. Törnberg avertit qu’un nombre croissant d’acteurs exploitent déjà l’IA pour produire du contenu conçu pour maximiser l’attention, souvent sous forme de désinformation ou de récits fortement polarisés, motivés par les modèles de monétisation de plateformes comme X. À mesure que les modèles d’IA deviennent de plus en plus sophistiqués, un tel contenu est sur le point de submerger le paysage numérique. Törnberg a exprimé candidement son doute quant à la capacité des modèles de médias sociaux conventionnels, tels qu’ils existent actuellement, à résister à ce déferlement imminent.