IA en Australie: Progrès ou risque de discrimination accrue?
L’intégration rapide de l’intelligence artificielle dans la société australienne, tout en promettant des gains de productivité significatifs, comporte un grave risque d’exacerber les inégalités sociales existantes, selon un avertissement sévère de la Commissaire aux droits humains du pays. Alors que le gouvernement fédéral se prépare à discuter du potentiel économique de l’IA lors d’un prochain sommet, un chœur croissant de voix, y compris des syndicats et des organismes industriels, tire la sonnette d’alarme quant au potentiel de la technologie à enraciner le racisme et le sexisme si elle n’est pas réglementée.
La Commissaire aux droits humains, Lorraine Finlay, a averti que la recherche de bénéfices économiques de l’IA ne doit pas se faire au détriment d’une discrimination accrue. Elle souligne un manque critique de transparence dans les ensembles de données utilisés pour former les outils d’IA, ce qui rend difficile l’identification et l’atténuation des biais inhérents. Finlay a expliqué que le “biais algorithmique” signifie que l’injustice est directement intégrée dans la technologie, conduisant à des résultats biaisés. Ceci est aggravé par le “biais d’automatisation”, où les humains dépendent de plus en plus des décisions des machines, risquant potentiellement de négliger ou même de renforcer des schémas discriminatoires sans en avoir conscience. La commission a constamment plaidé en faveur d’une loi dédiée à l’IA, parallèlement au renforcement de la législation existante comme la loi sur la protection de la vie privée, et à la mise en œuvre de tests rigoureux pour détecter les biais dans les systèmes d’IA. Finlay a exhorté le gouvernement à établir rapidement de nouvelles garanties législatives, soulignant la nécessité de tests de biais, d’audits et d’une surveillance humaine robuste.
Les préoccupations de la commissaire surviennent au milieu d’un débat interne au sein du parti travailliste sur l’approche optimale de la gouvernance de l’IA. La sénatrice Michelle Ananda-Rajah, ancienne médecin et chercheuse en IA, a notablement divergé de certaines lignes du parti, proposant que toutes les données australiennes soient “libérées” aux entreprises technologiques. Sa justification est de former des modèles d’IA sur des données locales diverses, empêchant ainsi la perpétuation des biais étrangers et reflétant mieux la vie et la culture australiennes. Bien qu’Ananda-Rajah s’oppose à une loi dédiée à l’IA, elle croit fermement que les créateurs de contenu doivent être rémunérés pour leur travail utilisé dans la formation de l’IA. Elle soutient que sans l’ouverture des données nationales, l’Australie risque de “louer” perpétuellement des modèles d’IA auprès de géants technologiques internationaux, manquant de supervision ou de compréhension de leur fonctionnement.
Les preuves de biais de l’IA s’accumulent déjà, tant au niveau national qu’international. Des études ont révélé des résultats discriminatoires dans des domaines critiques tels que la médecine et le recrutement. Par exemple, une étude australienne publiée en mai a révélé que les candidats à des emplois interviewés par des recruteurs d’IA étaient potentiellement victimes de discrimination en fonction de leur accent ou s’ils vivaient avec un handicap. Ananda-Rajah a cité le dépistage du cancer de la peau comme un autre exemple où le biais algorithmique dans les outils d’IA pourrait entraîner un traitement inégal des patients, soulignant la nécessité de former des modèles sur des données australiennes complètes et diverses tout en protégeant les informations sensibles.
Alors que la “libération” des données est considérée par certains comme faisant partie de la solution, d’autres experts soulignent la nécessité d’une approche à plusieurs volets. Judith Bishop, experte en IA à l’Université La Trobe, reconnaît que davantage de données australiennes pourraient améliorer la formation de l’IA, mettant en garde contre une dépendance excessive aux modèles américains entraînés sur des ensembles de données étrangers. Cependant, elle souligne que ce n’est qu’une composante d’une solution plus large. De même, la Commissaire à l’eSécurité Julie Inman Grant a exprimé des inquiétudes quant au manque de transparence dans les données de formation de l’IA. Elle appelle les entreprises technologiques à être transparentes sur leurs sources de données, à développer des outils de reporting robustes et à s’assurer que leurs produits utilisent des données diverses, précises et représentatives. Inman Grant a souligné l’“opacité du développement de l’IA générative” comme profondément problématique, suscitant des craintes que les grands modèles linguistiques puissent “amplifier, voire accélérer, les biais nuisibles – y compris les normes de genre étroites ou nuisibles et les préjugés raciaux”, surtout compte tenu de la concentration du développement chez quelques entreprises, risquant de marginaliser certaines voix et perspectives.
Le sentiment général parmi ces experts est que si l’IA offre un potentiel immense, son développement et son déploiement en Australie exigent une attention réglementaire urgente, un engagement envers la diversité des données et une transparence inébranlable pour garantir qu’elle serve tous les Australiens de manière juste et équitable, plutôt que d’approfondir les divisions existantes. Les discussions en cours lors du sommet économique fédéral et au sein des cercles politiques reflètent la reconnaissance croissante que la navigation dans l’avenir de l’IA nécessite un équilibre délicat entre innovation et responsabilité éthique, en particulier en ce qui concerne la propriété intellectuelle et la protection de la vie privée, que les groupes des médias et des arts craignent d’être menacées par un “vol effréné”.