Les bots IA reflètent la polarisation humaine sur les réseaux sociaux
Les plateformes sociales en ligne comme Facebook et X sont souvent blâmées pour l’aggravation de la polarisation politique et sociale, mais une étude récente suggère qu’elles pourraient simplement amplifier une tendance humaine plus profonde et intrinsèque. Des chercheurs de l’Université d’Amsterdam aux Pays-Bas ont mené une expérience éclairante, plaçant des chatbots d’intelligence artificielle au sein d’une structure de médias sociaux simplifiée pour observer leurs interactions. Leurs découvertes ont indiqué que même sans l’influence omniprésente des algorithmes, ces entités IA s’organisaient naturellement en fonction d’affiliations pré-assignées, formant rapidement des chambres d’écho numériques.
L’étude, détaillée dans une prépublication sur arXiv, a impliqué 500 chatbots IA, chacun alimenté par le grand modèle linguistique d’OpenAI, GPT-4o mini. Ces bots se sont vu attribuer des personas distinctes, puis ont été lancés sur une plateforme de médias sociaux de base délibérément dépouillée de fonctionnalités courantes telles que les publicités, les algorithmes de découverte de contenu ou les publications recommandées. Leur seule directive était d’interagir les uns avec les autres et avec le contenu disponible. Au cours de cinq expériences distinctes, chacune impliquant 10 000 actions des chatbots, un schéma cohérent est apparu : les bots ont majoritairement été attirés par et ont suivi d’autres utilisateurs qui partageaient leurs « croyances politiques » préprogrammées. De plus, les bots qui publiaient le contenu le plus partisan recevaient le plus d’engagement, recueillant le plus de followers et de partages.
Ces résultats offrent une réflexion inconfortable sur le comportement humain, étant donné que les chatbots ont été conçus pour émuler la façon dont les gens interagissent. Bien que l’expérience visait à isoler l’impact de la conception de la plateforme, il est crucial de reconnaître que les données d’entraînement sous-jacentes des bots sont dérivées de décennies d’interaction humaine en ligne, dont une grande partie a été façonnée par des environnements dominés par les algorithmes. Essentiellement, ces entités IA imitent des modèles de comportement en ligne préexistants et profondément enracinés, soulevant des questions sur la facilité avec laquelle ces tendances peuvent être inversées.
Pour contrer la polarisation auto-sélectionnée observée, les chercheurs ont mis en œuvre diverses interventions. Celles-ci comprenaient la présentation d’un flux de contenu chronologique, la dévalorisation du contenu viral, la dissimulation des nombres de followers et de partages, la dissimulation des profils d’utilisateurs et même l’amplification active des points de vue opposés. Malgré ces efforts, aucune des solutions ne s’est avérée significativement efficace, entraînant un changement de moins de 6 % dans l’engagement envers les comptes partisans. Dans un résultat particulièrement révélateur, la simulation qui cachait les bios des utilisateurs a paradoxalement aggravé la fracture partisane, les publications extrêmes attirant une attention encore plus grande. Alors qu’une étude précédente des mêmes chercheurs avait réussi à favoriser un engagement élevé et une faible toxicité en amplifiant les points de vue opposés dans un environnement simulé, cette intervention spécifique n’a pas produit de résultats positifs similaires dans la configuration actuelle.
Les implications de l’étude sont frappantes : la structure même des médias sociaux peut être intrinsèquement difficile pour l’interaction humaine, semblant renforcer nos instincts et comportements moins souhaitables. Elle agit comme un miroir déformant, reflétant l’humanité à elle-même de manière distordue. La recherche suggère que trouver des « lentilles » efficaces suffisamment puissantes pour corriger la façon dont nous nous percevons en ligne reste un objectif insaisissable.