L'IA et la méfiance des groupes marginalisés : Ce que révèle une étude
L’intelligence artificielle s’intègre rapidement dans le tissu de la vie quotidienne, opérant souvent discrètement dans des secteurs critiques allant des diagnostics de santé aux processus de recrutement, et influençant même les nouvelles que les gens consomment. Pourtant, cette influence omniprésente n’est pas toujours équitable. Des recherches approfondies ont constamment révélé que les biais algorithmiques désavantagent fréquemment les communautés marginalisées. Par exemple, les systèmes de reconnaissance faciale classifient communément mal les individus transgenres et non binaires ; les outils d’IA utilisés dans l’application de la loi ont été liés à des taux disproportionnellement élevés d’arrestations injustifiées pour les personnes noires ; et les systèmes de diagnostic algorithmique peuvent ériger des obstacles aux soins de santé essentiels pour les personnes handicapées.
Ces inégalités documentées soulèvent une question cruciale : Les minorités de genre et raciales, ainsi que les personnes handicapées, nourrissent-elles des perceptions plus négatives de l’IA par rapport à la population américaine plus large ? Une étude récente menée par Oliver L. Haimson, un chercheur spécialisé dans la manière dont les communautés marginalisées interagissent avec les technologies sociales, a cherché à y répondre. Avec ses collègues Samuel Reiji Mayworm, Alexis Shore Ingber et Nazanin Andalibi, Haimson a interrogé plus de 700 individus à travers les États-Unis. L’échantillon comprenait un groupe représentatif au niveau national, complété par un suréchantillonnage intentionnel de participants transgenres, non binaires, handicapés et issus de minorités raciales. L’enquête a exploré les attitudes générales envers l’IA, y compris les croyances concernant son potentiel à améliorer les vies ou le travail, le sentiment positif global et les intentions d’utilisation personnelle future.
Les résultats révèlent une nette divergence d’attitudes. Les participants transgenres, non binaires et handicapés ont constamment rapporté des points de vue significativement plus négatifs sur l’IA, en moyenne, que leurs homologues cisgenres et non handicapés. Cela suggère que lorsque ces minorités de genre et ces personnes handicapées sont contraintes d’interagir avec des systèmes d’IA, par exemple dans des contextes professionnels ou médicaux, elles peuvent le faire avec de profondes réserves ou de la méfiance. De tels résultats remettent directement en question le récit dominant au sein de l’industrie technologique qui dépeint l’IA comme une force inévitable universellement bénéfique pour la société. La perception du public est essentielle pour façonner le développement, l’adoption et la réglementation de l’IA, et si l’IA sert principalement ceux qui sont déjà au pouvoir, son rôle supposé de bien social devient ténu. Lorsque les individus sont tenus d’utiliser l’IA malgré leur aversion ou leur méfiance, la participation peut diminuer, la confiance peut s’éroder et les inégalités existantes peuvent s’aggraver.
En approfondissant les détails de l’étude, les participants non binaires ont exprimé les attitudes les plus négatives envers l’IA. Les individus transgenres dans leur ensemble, englobant à la fois les hommes trans et les femmes trans, ont également manifesté des points de vue significativement négatifs. Parmi les personnes cisgenres — celles dont l’identité de genre s’aligne avec le sexe assigné à la naissance —, les femmes ont rapporté des attitudes plus négatives que les hommes, une tendance qui fait écho aux recherches précédentes, bien que cette étude étende notablement le champ d’application en incluant des perspectives non binaires et trans. De même, les participants handicapés avaient des points de vue significativement plus négatifs sur l’IA que les participants non handicapés, ce sentiment étant particulièrement prononcé chez ceux qui sont neurodivergents ou gèrent des problèmes de santé mentale. Ces résultats s’alignent avec un corpus croissant de recherches illustrant comment les systèmes d’IA classifient fréquemment mal, perpétuent la discrimination ou nuisent autrement aux individus transgenres et handicapés, souvent parce que la conception de l’IA, qui simplifie la complexité en catégories rigides, heurte les identités qui défient de telles définitions étroites. Cette simplification inhérente peut reproduire et renforcer involontairement les biais sociétaux, une réalité dont les utilisateurs sont profondément conscients.
Contrairement aux modèles clairs observés avec l’identité de genre et le handicap, l’étude a présenté un tableau plus complexe concernant la race. Les personnes de couleur, et les participants noirs en particulier, ont étonnamment eu des opinions plus positives envers l’IA que les participants blancs. Cette découverte est particulièrement complexe étant donné la vaste documentation antérieure sur les biais raciaux dans les systèmes d’IA, des algorithmes d’embauche discriminatoires à la surveillance disproportionnée. Les auteurs de l’étude suggèrent que ces résultats n’impliquent pas que l’IA fonctionne bien pour les communautés noires. Au lieu de cela, ils peuvent refléter une perspective pragmatique ou une ouverture optimiste au potentiel de la technologie, même face aux préjudices documentés. De futures recherches qualitatives pourraient explorer davantage cet équilibre ambivalent de critique et d’optimisme chez les individus noirs concernant l’IA.
Ces disparités dans la perception de l’IA ont des implications significatives tant pour la politique que pour le développement technologique. Si les communautés marginalisées, pour des raisons valables, ne font pas confiance à l’IA, des mesures concrètes sont impératives. Premièrement, les développeurs et les institutions doivent fournir des options pour un consentement significatif, exigeant des employeurs, des prestataires de soins de santé et d’autres entités qu’ils divulguent quand et comment l’IA est utilisée, et, surtout, qu’ils offrent de réelles opportunités aux individus de se désengager sans pénalité. Deuxièmement, des protections robustes en matière de transparence des données et de confidentialité sont essentielles, permettant aux personnes de comprendre la source des données informant les systèmes d’IA, la manière dont leurs données seront traitées et la manière dont elles seront protégées. De telles mesures de confidentialité sont particulièrement vitales pour les groupes marginalisés qui ont déjà subi une surveillance algorithmique et une utilisation abusive des données. En outre, pendant le développement des systèmes d’IA, des mesures supplémentaires devraient être prises pour tester et évaluer rigoureusement les impacts sur les groupes marginalisés, impliquant potentiellement des approches de conception participative où les communautés affectées contribuent directement à la conception du système. Si une communauté exprime son opposition à une solution d’IA, les développeurs doivent être préparés à tenir compte de leurs préoccupations. En fin de compte, les attitudes négatives exprimées par les groupes marginalisés — ceux qui sont les plus susceptibles aux préjudices algorithmiques — servent de signal critique pour que les concepteurs, développeurs et décideurs politiques de l’IA réévaluent fondamentalement leurs efforts. Un futur bâti sur l’IA doit prendre en compte consciencieusement les personnes mêmes que la technologie risque de désavantager.