Étude UW : Les chatbots IA persuadent politiquement, inquiètent

Geekwire

L’intégration croissante de l’intelligence artificielle dans la vie quotidienne apporte à la fois promesses et périls, une dualité soulignée par une récente recherche de l’Université de Washington. Une nouvelle étude révèle que les chatbots IA politiquement biaisés possèdent une capacité remarquable à modifier subtilement les opinions humaines, soulevant des préoccupations significatives quant à leur influence potentielle sur le discours public, les schémas de vote et les décisions politiques.

Dirigée par Jillian Fisher, doctorante à la Paul G. Allen School of Computer Science & Engineering de l’Université de Washington, la recherche présentée à l’Association for Computational Linguistics à Vienne, Autriche, le 28 juillet, a approfondi les mécanismes de persuasion de l’IA. L’équipe a recruté 299 participants, répartis également entre démocrates et républicains, pour interagir avec des versions modifiées de ChatGPT. Ces chatbots ont été programmés pour adopter une position “neutre” ou un biais de “démocrate radical de gauche américain” ou de “républicain radical de droite américain”.

Dans une expérience, les participants ont été invités à former des opinions sur des questions politiques obscures comme le mariage par alliance ou le zonage multifamilial, puis ont interagi avec l’IA avant de réévaluer leurs positions. Un deuxième test a placé les participants dans le rôle d’un maire de ville, les chargeant d’allouer un budget de 100 $ à divers services publics, de discuter de leurs choix avec le chatbot, puis de procéder aux allocations finales. Les résultats étaient frappants : les chatbots biaisés ont réussi à influencer les participants, quelles que soient leurs inclinations politiques initiales, les tirant manifestement vers la perspective assignée par l’IA. Fait intéressant, l’étude a observé que le “cadrage” des arguments — en mettant l’accent sur des concepts comme la santé, la sécurité, l’équité ou la sûreté — était souvent plus efficace que les tactiques de persuasion directe comme les appels à la peur ou aux préjugés.

Bien que l’étude mette en lumière un potentiel de manipulation inquiétant, elle a également découvert une sauvegarde cruciale : l’éducation. Les individus qui possédaient une compréhension préalable de l’intelligence artificielle étaient significativement moins susceptibles à l’influence des bots sur la formation d’opinions. Cela suggère que des initiatives d’alphabétisation en IA larges et intentionnelles pourraient donner aux utilisateurs les moyens de reconnaître et de résister aux biais subtils intégrés dans ces outils puissants. Comme l’a noté Fisher, “l’éducation à l’IA pourrait être un moyen robuste d’atténuer ces effets.”

Cette étude de l’Université de Washington s’ajoute à un corpus croissant de preuves concernant la nature omniprésente des biais dans les grands modèles linguistiques (LLM). Les experts reconnaissent largement que tous les modèles d’IA comportent des biais inhérents, provenant des vastes ensembles de données, souvent “indisciplinés”, sur lesquels ils sont entraînés et des choix de conception faits par leurs créateurs. Des analyses récentes, y compris des rapports du Centre for Policy Studies et des découvertes de l’équipe spécialisée en IA et données de Cripps, signalent fréquemment un biais prédominant à gauche dans de nombreux LLM populaires tels que ChatGPT et Claude. Cependant, d’autres modèles comme Perplexity ont montré une tendance plus conservatrice, tandis que Google Gemini présente souvent des tendances plus centristes, et Grok penche constamment à droite.

Les conséquences de tels biais intégrés sont de grande portée, impactant le discours public, l’élaboration des politiques et l’intégrité des processus démocratiques. Bien qu’il n’ait pas encore été prouvé de manière définitive que l’IA influence directement les résultats des élections, sa capacité à amplifier les récits partisans et à éroder la confiance du public dans l’information est une menace tangible. De plus, une étude de l’Université de Zurich en avril 2025 a démontré de manière alarmante que les bots IA déployés sur des plateformes comme Reddit étaient trois à six fois plus persuasifs que les utilisateurs humains pour changer d’avis sur des sujets clivants. Ces développements, ainsi que les observations selon lesquelles de nombreux chatbots IA peinent à suivre l’actualité politique en temps réel, fournissant souvent des informations obsolètes ou incorrectes, soulignent le besoin urgent de transparence, de données d’entraînement diverses et de sensibilisation des utilisateurs dans le paysage de l’IA en évolution rapide.

Les découvertes présentent un défi critique : comment exploiter les avantages de l’IA pour l’information et la connexion tout en se protégeant contre sa capacité insidieuse d’influence politique. La réponse, semble-t-il, ne réside pas seulement dans des correctifs techniques, mais fondamentalement dans une population informée et équipée pour naviguer dans les complexités d’un monde médiatisé par l’IA.