L'IA devient la norme : notre tolérance aux erreurs augmente-t-elle ?

Theconversation

Tout au long de l’histoire, l’humanité a traversé des changements radicaux apportés par de nouvelles inventions, de l’imprimerie à Internet. Chaque technologie transformatrice a inévitablement été accueillie avec un certain degré de scepticisme par ceux qui vivaient son émergence. Au cours des trois dernières décennies seulement, Internet a profondément remodelé la façon dont nous cherchons, traitons et faisons confiance à l’information, et plus récemment, la façon dont nous interagissons avec l’intelligence artificielle.

Initialement, les nouvelles technologies et méthodes font souvent l’objet d’un examen minutieux, leurs défauts et erreurs étant jugés plus sévèrement que les pratiques établies. Ces appréhensions ne sont pas sans fondement ; des débats vitaux se poursuivent autour de la responsabilité, de l’éthique, de la transparence et de l’équité dans le déploiement des systèmes d’IA. Pourtant, une question plus profonde demeure : dans quelle mesure notre aversion découle-t-elle de la technologie elle-même, et dans quelle mesure est-ce simplement l’inconfort de s’écarter du statu quo familier ?

Ce phénomène, appelé “aversion aux algorithmes”, décrit la tendance à juger un algorithme plus sévèrement pour avoir commis la même erreur qu’un humain. Mes recherches en psychologie cognitive, menées avec mes collègues Jonathan A. Fugelsang et Derek J. Koehler, explorent comment notre évaluation des erreurs est façonnée par le contexte, en particulier par ce que nous percevons comme la norme. Malgré le fait que les algorithmes surpassent constamment les humains dans diverses tâches de prédiction et de jugement, une méfiance persistante a perduré pendant des décennies. Cette résistance remonte aux années 1950, lorsque l’argument du psychologue Paul Meehl selon lequel de simples modèles statistiques pouvaient faire des prédictions plus précises que des cliniciens formés fut accueilli par ce que Daniel Kahneman décrivit plus tard comme “hostilité et incrédulité”. Cette résistance précoce continue de résonner dans des études plus récentes démontrant l’aversion aux algorithmes.

Pour étudier ce biais, nous avons conçu une expérience où les participants évaluaient les erreurs commises soit par un humain, soit par un algorithme. De manière cruciale, avant de présenter l’erreur, nous les avons informés de l’option considérée comme “conventionnelle” – historiquement dominante, largement utilisée et généralement fiable dans ce scénario. Dans la moitié des essais, les humains étaient présentés comme la norme traditionnelle ; dans l’autre moitié, les algorithmes étaient désignés comme l’agent conventionnel.

Nos résultats ont révélé un changement significatif dans le jugement. Lorsque les humains étaient présentés comme la norme, les erreurs algorithmiques étaient effectivement jugées plus sévèrement. Cependant, lorsque les algorithmes étaient présentés comme la méthode conventionnelle, les participants sont devenus plus indulgents envers les erreurs algorithmiques et, étonnamment, plus critiques envers les humains commettant les mêmes erreurs. Cela suggère que les réactions des gens pourraient avoir moins à voir avec la nature intrinsèque des algorithmes par rapport aux humains, et plus avec le fait qu’une méthode s’aligne avec leur modèle mental de la façon dont les choses sont “censées être faites”. Essentiellement, nous faisons preuve d’une plus grande tolérance lorsque la source d’une erreur est également le statu quo dominant, et d’un jugement plus sévère lorsque les erreurs proviennent de ce qui semble nouveau ou non conventionnel.

Il est vrai que les explications de l’aversion aux algorithmes résonnent souvent intuitivement ; un décideur humain, par exemple, pourrait saisir des nuances de la vie réelle qu’un système algorithmique ne peut pas. Mais cette aversion concerne-t-elle uniquement les limitations non humaines de l’IA, ou une partie de la résistance est-elle enracinée dans l’inconfort plus large de la transition d’une norme établie à une autre ? Examiner ces questions à travers la lentille historique des relations humaines avec les technologies passées nous oblige à reconsidérer les hypothèses courantes sur les raisons pour lesquelles les algorithmes sont souvent accueillis avec scepticisme et moins de pardon.

Les signes de cette transition sont déjà omniprésents. Les débats autour de l’éthique et de la responsabilité de l’IA n’ont pas, par exemple, ralenti son adoption généralisée. Pendant des décennies, la technologie algorithmique nous a discrètement aidés à naviguer dans le trafic, à trouver des partenaires, à détecter les fraudes, à recommander des divertissements et même à aider au diagnostic médical. Alors que de nombreuses études documentent l’aversion aux algorithmes, des recherches récentes pointent également vers l’“appréciation des algorithmes”, où les individus préfèrent activement ou se réfèrent aux conseils algorithmiques dans diverses situations. À mesure que notre dépendance aux algorithmes croît — surtout lorsqu’ils s’avèrent plus rapides, plus faciles ou manifestement plus fiables — un changement fondamental dans la façon dont nous percevons ces technologies, et leurs erreurs inévitables, semble inévitable. Cette évolution d’une aversion pure et simple à une tolérance croissante suggère que notre jugement des erreurs pourrait finalement dépendre moins de qui les commet, et plus de ce à quoi nous nous sommes habitués.