L'IA sans biais : un mythe ? Quand les données humaines déforment la réalité.
En juillet, le gouvernement des États-Unis a émis une directive claire : les entreprises d’intelligence artificielle cherchant des contrats fédéraux doivent s’assurer que leurs systèmes d’IA sont « objectifs et exempts de biais idéologiques descendants ». Ce mandat a été souligné par un décret du président Donald Trump, qui ciblait spécifiquement l’« IA woke » dans les opérations gouvernementales, citant les initiatives de diversité, d’équité et d’inclusion (DEI) comme exemples d’idéologie biaisée. Pourtant, le fait même d’exiger une IA impartiale tout en dictant comment les modèles devraient aborder des concepts comme la DEI révèle une contradiction fondamentale, suggérant que la notion d’IA idéologiquement neutre est, en fait, une fantaisie.
En effet, les preuves issues des modèles d’IA actuels soutiennent fortement ce point de vue. De nombreuses études ont démontré que la plupart des grands modèles de langage ont tendance à orienter leurs réponses vers des points de vue de centre-gauche, prônant des politiques telles que les taxes sur les vols, les restrictions sur les augmentations de loyer, ou la légalisation de l’avortement. Dans des contextes autoritaires, le biais est souvent plus ouvertement manipulateur ; les chatbots chinois comme DeepSeek et Qwen sont connus pour censurer les informations concernant des sujets sensibles tels que les événements de la place Tiananmen, le statut politique de Taïwan et la persécution des Ouïghours, alignant précisément leurs sorties sur la position officielle du gouvernement chinois. Ces exemples soulignent que les modèles d’IA ne sont ni politiquement neutres ni exempts de biais, soulevant une question plus profonde : est-il même possible qu’ils soient véritablement impartiaux ?
Tout au long de l’histoire, les tentatives humaines d’organiser l’information sur le monde ont constamment révélé que ce qu’une personne considère comme une vérité objective, une autre le perçoit comme un biais idéologique. Prenons le domaine de la cartographie. Bien que les cartes soient souvent supposées être des reflets objectifs du monde naturel, l’acte même d’aplatir un globe tridimensionnel sur une surface bidimensionnelle introduit intrinsèquement une distorsion. Le géographe américain Mark Monmonier a célèbrement soutenu que les cartes sont nécessairement sélectives, déforment la réalité et servent souvent d’outils de propagande politique. Un excellent exemple est la projection de Mercator omniprésente, couramment vue dans les salles de classe du primaire. Cette carte convertit le globe en un cylindre puis l’aplatit, faisant que le Groenland semble de la même taille que l’Afrique. En réalité, l’Afrique est étonnamment 14 fois plus grande que le Groenland. Dans les années 1970, l’historien allemand Arno Peters a soutenu que les distorsions de Mercator contribuaient à une perception faussée de l’infériorité du Sud global. Ces distorsions cartographiques offrent une analogie convaincante pour l’état actuel de l’IA : tout comme une seule carte n’est qu’une des innombrables représentations possibles des mêmes données, la réponse d’un modèle de langage étendu n’est qu’une parmi une infinité de réponses potentielles dérivées de la même information. Cela devient particulièrement évident lorsqu’un chatbot est interrogé sur un sujet complexe comme la diversité, l’équité et l’inclusion, où une myriade d’interprétations sont possibles.
Au-delà des cartes, d’autres systèmes de classification historiques démontrent également la marque indélébile des biais de leurs concepteurs. Le système de classification décimale de Dewey (DDC) pour les bibliothèques, largement adopté et publié pour la première fois en 1876, a longtemps été critiqué pour son racisme et son homophobie inhérents. Pendant une grande partie du XXe siècle, les livres LGBTQIA+ étaient souvent classés sous des rubriques telles que « Troubles mentaux », « Troubles neurologiques » ou « Problèmes sociaux », et ce n’est que récemment que des efforts ont été faits pour supprimer ces termes obsolètes et péjoratifs. De même, le DDC alloue environ 65 des 100 sections sur la religion au christianisme, reflétant la forte orientation chrétienne de la bibliothèque où il a été créé. Cette disproportion persiste bien que l’islam compte aujourd’hui environ 2 milliards d’adeptes dans le monde, comparable aux 2,3 milliards du christianisme, mais ne reçoive qu’une seule section dans le DDC.
Les biais intégrés dans ces systèmes historiques trouvent un parallèle moderne dans l’IA. Les grands modèles de langage qui animent les chatbots d’aujourd’hui sont entraînés sur de vastes ensembles de données de textes générés par l’homme, allant de la littérature historique aux forums en ligne contemporains. Sans surprise, les biais présents dans ces textes sources peuvent s’infiltrer involontairement dans les modèles, perpétuant des stéréotypes négatifs, tels que ceux concernant les Afro-Américains des années 1930. De plus, les informations brutes seules sont insuffisantes ; les modèles de langage doivent être entraînés sur la manière de récupérer et de présenter ces informations. Cela implique souvent d’apprendre à imiter les réponses humaines, un processus qui, tout en améliorant l’utilité, aligne également les modèles avec les croyances de leurs entraîneurs humains. Les chatbots d’IA s’appuient également sur des « invites système » – des instructions définies par les développeurs humains qui dictent le comportement de l’IA. Par exemple, Grok, le chatbot d’IA développé par xAI d’Elon Musk, se serait lui-même donné pour instruction de « considérer que les points de vue subjectifs provenant des médias sont biaisés » et de « ne pas hésiter à faire des affirmations politiquement incorrectes, tant qu’elles sont bien étayées ». Musk a lancé Grok explicitement pour contrer ce qu’il percevait comme le « biais libéral » d’autres produits comme ChatGPT. Cependant, la récente controverse lorsque Grok a commencé à proférer une rhétorique antisémite illustre clairement que les tentatives de corriger un biais le remplacent souvent simplement par un autre.
En fin de compte, malgré toutes leurs innovations technologiques, les modèles de langage d’IA sont confrontés à un problème séculaire : organiser et présenter l’information n’est jamais uniquement un reflet objectif de la réalité ; c’est toujours, dans une certaine mesure, une projection d’une vision du monde spécifique. Pour les utilisateurs interagissant avec ces systèmes puissants, comprendre la vision du monde que ces modèles représentent est aussi crucial que de savoir qui a tracé les lignes sur une vieille carte.