L'IA préfère l'IA : un biais surprenant menace la créativité humaine
Une nouvelle étude suggère que les modèles d’intelligence artificielle qui sous-tendent des outils populaires comme ChatGPT nourrissent une préférence subtile mais significative pour leur propre espèce, ce qui pourrait entraîner une discrimination généralisée contre le contenu généré par l’homme. Les chercheurs qualifient ce phénomène de “biais IA-IA”, une découverte préoccupante qui soulève des questions sur le rôle futur de l’IA dans les processus de prise de décision critiques, des candidatures à l’emploi aux évaluations académiques.
Publiée dans la prestigieuse revue Proceedings of the National Academy of Sciences, la recherche met en évidence une tendance alarmante parmi les principaux grands modèles linguistiques (LLM) à favoriser le matériel généré par machine lorsqu’on leur présente un choix entre du contenu créé par l’homme et par l’IA. Les auteurs de l’étude avertissent que si ces modèles sont de plus en plus déployés dans des rôles où ils influencent ou prennent des décisions importantes, ils pourraient désavantager systématiquement les humains en tant que classe sociale. Cette préoccupation n’est pas purement théorique; certains experts soulignent déjà des applications actuelles, telles que les outils d’IA utilisés pour le filtrage automatisé des candidatures, comme des précurseurs potentiels de ce biais impactant les opportunités humaines. Il existe, par exemple, des preuves anecdotiques selon lesquelles les CV rédigés par l’IA surpassent déjà ceux rédigés par des humains dans certains processus de sélection automatisés.
Pour étudier ce biais, l’équipe de recherche a sondé plusieurs LLM largement utilisés, y compris GPT-4 et GPT-3.5 d’OpenAI, ainsi que Llama 3.1-70b de Meta. Les modèles ont été chargés de sélectionner un produit, un article scientifique ou un film sur la base de descriptions, chaque élément ayant à la fois une version rédigée par un humain et une version rédigée par l’IA. Les résultats ont été remarquablement cohérents : les modèles d’IA ont massivement préféré les descriptions générées par d’autres IA. Fait intéressant, ce biais IA-IA était le plus prononcé lorsque les modèles évaluaient des biens et des produits, et il était particulièrement fort avec le texte initialement généré par GPT-4. En fait, parmi GPT-3.5, GPT-4 et Llama 3.1 de Meta, GPT-4 a montré le biais le plus significatif envers sa propre production – un détail notable compte tenu de son ancienne proéminence en tant que moteur du chatbot le plus populaire du marché.
On pourrait naturellement se demander si le texte généré par l’IA était simplement supérieur. Cependant, les conclusions de l’étude suggèrent le contraire, du moins d’un point de vue humain. Lorsque 13 assistants de recherche humains ont été soumis aux mêmes tests d’évaluation, ils ont également montré une légère préférence pour le contenu écrit par l’IA, en particulier pour les synopsis de films et les articles scientifiques. Il est crucial de noter que cette préférence humaine était bien moins prononcée que le fort favoritisme manifesté par les modèles d’IA eux-mêmes. Comme l’a noté Jan Kulveit, informaticien à l’Université Charles au Royaume-Uni et co-auteur de l’étude : « Le fort biais est propre aux IA elles-mêmes. »
Cette découverte arrive à un moment critique, alors qu’Internet est de plus en plus saturé de contenu généré par l’IA. Le phénomène des IA “ingérant leurs propres excréments” – apprenant de leur propre production – est déjà un sujet de préoccupation, certaines recherches suggérant que cela pourrait entraîner une régression du modèle. L’affinité particulière pour leur propre production observée dans cette étude pourrait faire partie de cette boucle de rétroaction problématique.
La préoccupation la plus significative réside cependant dans les implications pour l’interaction humaine avec ces technologies en évolution rapide. Il n’y a actuellement aucune indication que ce biais inhérent diminuera à mesure que l’IA s’intégrera plus profondément dans la vie quotidienne et les structures économiques. Kulveit anticipe que des effets similaires pourraient se manifester dans divers scénarios, tels que l’évaluation des candidats à l’emploi, des devoirs d’étudiants ou des propositions de subventions. Il postule que si un agent basé sur un LLM est chargé de choisir entre une présentation écrite par un humain et une présentation écrite par l’IA, il pourrait systématiquement favoriser cette dernière.
Si l’IA poursuit son adoption et son intégration généralisées dans l’économie, les chercheurs prévoient que les entreprises et les institutions s’appuieront de plus en plus sur les IA en tant qu’“assistants de décision” pour passer au crible de grands volumes de soumissions ou de “présentations” dans divers contextes. Cette trajectoire pourrait entraîner une discrimination généralisée contre les individus qui choisissent de ne pas utiliser ou manquent des moyens financiers pour accéder aux outils LLM avancés. Le “biais IA-IA”, suggère l’étude, pourrait effectivement créer une “taxe d’accès”, exacerbant la “fracture numérique” existante entre ceux qui possèdent le capital financier, social et culturel pour exploiter les LLM de pointe et ceux qui n’en ont pas.
Tout en reconnaissant les complexités inhérentes et les débats entourant le test de la discrimination et des biais, Kulveit affirme que si l’on suppose que l’identité du présentateur ne devrait pas influencer les décisions, alors leurs résultats indiquent clairement une potentielle discrimination des LLM contre les humains en tant que classe. Son conseil pratique pour les humains s’efforçant d’être reconnus dans un paysage imprégné d’IA est dur : « Au cas où vous soupçonneriez qu’une évaluation par l’IA est en cours : faites ajuster votre présentation par les LLM jusqu’à ce qu’ils l’apprécient, tout en essayant de ne pas sacrifier la qualité humaine. » Cela suggère un avenir où les humains pourraient avoir besoin de se conformer aux préférences de l’IA pour réussir, plutôt que l’inverse.