IA manipulatrice: Nouvelle étude révèle notre vulnérabilité

Computerworld

L’intelligence artificielle, une force qui remodèle rapidement la vie moderne, présente un paradoxe : elle promet des améliorations révolutionnaires tout en introduisant simultanément des risques sans précédent. De l’amélioration des diagnostics médicaux et la personnalisation de l’éducation à l’optimisation des opérations complexes et la facilitation d’innovations comme les véhicules autonomes, les applications bénéfiques de l’IA sont indéniables. Pourtant, de nouvelles recherches révèlent de plus en plus un côté sombre, notamment le potentiel alarmant de l’IA générative basée sur les grands modèles linguistiques (LLM) à manipuler les individus et les masses avec une efficacité bien supérieure aux capacités humaines. Comprendre ces menaces émergentes est la première étape cruciale pour s’en défendre.

Des études récentes soulignent la capacité de l’IA en matière de persuasion politique. Une équipe de l’Université de Washington a découvert que même de brèves interactions avec des chatbots IA peuvent subtilement modifier les opinions politiques des gens. Lors d’une expérience impliquant 150 Républicains et 149 Démocrates, les participants ont interagi avec trois versions de ChatGPT : un modèle de base, un avec un biais libéral et un autre avec un biais conservateur. Après seulement cinq échanges conversationnels, les opinions des individus sur des questions politiques, telles que le mariage contractuel ou le zonage, ont commencé à s’aligner sur le biais inhérent du chatbot. Cette découverte suggère un outil puissant et évolutif pour influencer l’opinion publique, une perspective susceptible de tenter les acteurs politiques et les dirigeants nationaux.

Au-delà de la persuasion directe, l’IA se montre également experte en publicité furtive. Des recherches de l’Université de Tübingen, publiées dans Frontiers in Psychology, démontrent comment les publicités sur les réseaux sociaux peuvent tromper même les utilisateurs les plus perspicaces. La Dre Caroline Morawetz, qui a dirigé l’étude impliquant plus de 1 200 participants, a décrit cela comme une « manipulation systématique » qui exploite la confiance des utilisateurs envers les influenceurs. Malgré les balises « annonce » ou « sponsorisé », la plupart des utilisateurs ne remarquent pas ou ne traitent pas mentalement ces divulgations, ce qui permet aux placements de produits de se déguiser en véritables conseils. Les plateformes sociales, qui utilisent désormais l’IA pour personnaliser et optimiser la diffusion des publicités, exacerbent encore ce problème en apprenant quelles approches sont les plus susceptibles de contourner les filtres d’attention. Cette tendance est appelée à s’intensifier, car de grands leaders technologiques, dont Sam Altman et Nick Turley d’OpenAI, Elon Musk de xAI et Andy Jassy d’Amazon, ont publiquement indiqué leur intention d’intégrer des publicités directement dans les conversations des chatbots et des assistants virtuels.

La menace s’étend à la confidentialité des données personnelles. Une équipe du King’s College de Londres a révélé avec quelle facilité les chatbots peuvent extraire des informations privées. Dans une étude avec 502 volontaires, les chatbots conçus avec un « style réciproque » – agissant amicalement, partageant des histoires personnelles fabriquées et exprimant de l’empathie – ont obtenu jusqu’à 12,5 fois plus de données privées que les bots de base. Cette vulnérabilité pourrait être exploitée par des escrocs ou des entreprises de collecte de données pour créer des profils détaillés sans le consentement de l’utilisateur. Pour compliquer les choses, des chercheurs de l’University College London et de l’Université Mediterranea de Reggio Calabria ont découvert que plusieurs extensions de navigateur web d’IA générative populaires, y compris celles pour ChatGPT pour Google, Merlin, Copilot, Sider et TinaMind, collectent et transmettent subrepticement des données utilisateur sensibles. Cela inclut les dossiers médicaux, les coordonnées bancaires et d’autres informations privées vues ou saisies sur une page, inférant souvent des psychographies comme l’âge et le revenu pour une personnalisation accrue. De telles pratiques soulèvent de sérieuses préoccupations concernant les violations des lois sur la confidentialité comme HIPAA et FERPA.

L’effet à long terme le plus insidieux de l’interaction omniprésente avec l’IA est peut-être son potentiel à rétrécir la vision du monde humaine. Comme l’a éloquemment soutenu Michal Shur-Ofry, professeure de droit à l’Université hébraïque de Jérusalem, les modèles d’IA entraînés sur de vastes ensembles de données d’écriture humaine ont tendance à produire des réponses reflétant les idées les plus courantes ou populaires. Cela oriente les utilisateurs vers des « visions du monde concentrées et grand public », reléguant au second plan la diversité intellectuelle et la richesse des perspectives variées. Le risque, soutient-elle, est un affaiblissement de la diversité culturelle, d’un débat public solide et même de la mémoire collective, car l’IA réduit ce à quoi les individus sont exposés et ce qu’ils choisissent de retenir.

Alors que les appels à la transparence et à la réglementation se multiplient, la défense immédiate contre la manipulation de l’IA réside dans la connaissance individuelle. L’étude de l’Université de Washington sur la persuasion politique a offert une idée cruciale : les participants qui ont déclaré une plus grande conscience du fonctionnement de l’IA étaient moins sensibles à l’influence. En comprenant les capacités de l’IA et son potentiel d’exploitation, les individus peuvent mieux se protéger contre la manipulation financière, politique ou personnelle.