Vidéos de Haine Générées par l'IA : Une Menace Croissante en Ligne

Globalnews

Ce qui apparaît initialement comme une vidéo légère, générée par l’IA et conçue pour l’amusement, prend rapidement une tournure inquiétante. Le clip met en scène un Bigfoot poilu, orné d’un chapeau de cowboy et d’un gilet orné du drapeau américain, assis au volant d’une camionnette. « Nous allons aujourd’hui à la parade LGBT », ricane la figure simiesque, ajoutant : « Vous allez adorer. » La scène dégénère ensuite en violence alors que Bigfoot traverse une foule hurlante, certains brandissant des drapeaux arc-en-ciel. Cette vidéo, publiée en juin sur la page TikTok d’AmericanBigfoot, a accumulé plus de 360 000 vues et des centaines de commentaires approbateurs, signalant une tendance troublante.

Ces derniers mois, les plateformes de médias sociaux ont été inondées de contenus similaires générés par l’IA qui promeuvent ouvertement la violence et diffusent la haine contre les groupes LGBTQ+, juifs, musulmans et autres minorités. Bien que les origines précises de bon nombre de ces vidéos restent obscures, leur prolifération en ligne a suscité l’indignation et une profonde inquiétude parmi les experts et les défenseurs. Ils soutiennent que les réglementations canadiennes actuelles sont malheureusement inadéquates pour suivre le rythme de la propagation rapide des contenus haineux générés par l’IA et ne parviennent pas à aborder les risques inhérents à la sécurité publique.

Helen Kennedy, directrice exécutive d’Egale Canada, une organisation de défense des droits LGBTQ+, exprime la profonde inquiétude de la communauté concernant la recrudescence de la désinformation transphobe et homophobe. Elle déclare que ces outils d’IA sont « militarisés pour déshumaniser et discréditer les personnes trans et de genre divers », soulignant que les lois de sécurité numérique existantes sont incapables de faire face à l’ampleur et à la vitesse de cette nouvelle menace. Kennedy souligne que la technologie en évolution rapide a fourni aux acteurs malveillants un instrument puissant pour propager la désinformation et la haine, les personnes transgenres étant ciblées de manière disproportionnée. « Des vidéos deepfake à l’amplification de la haine pilotée par les algorithmes, les préjudices ne sont pas artificiels – ils sont réels », avertit-elle.

La communauté LGBTQ+ n’est pas la seule cible, selon Evan Balgord, directeur exécutif du Réseau canadien anti-haine. Il note que des contenus islamophobes, antisémites et anti-sud-asiatiques, créés avec des outils d’IA générative, circulent également largement sur les médias sociaux. Balgord avertit que favoriser un environnement où la violence contre ces groupes est célébrée rend la violence dans le monde réel plus probable. Il souligne que les lois canadiennes sur la sécurité numérique étaient déjà en retard, et les avancées de l’IA n’ont fait qu’exacerber le problème. « Nous n’avons aucune règle de sécurité concernant les entreprises de médias sociaux », affirme Balgord, « nous n’avons aucun moyen de les tenir responsables, quel qu’il soit. »

Les tentatives de combler cette lacune législative ont échoué. Andrea Slane, professeure d’études juridiques à l’Université Ontario Tech qui a beaucoup recherché sur la sécurité en ligne, explique que les projets de loi visant à lutter contre les contenus en ligne nuisibles et à établir un cadre réglementaire pour l’IA sont morts lorsque le Parlement a été prorogé en janvier. Slane insiste sur le fait que le gouvernement doit réexaminer d’urgence la législation sur les préjudices en ligne et réintroduire le projet de loi, plaidant pour une action rapide.

Le ministre de la Justice, Sean Fraser, a indiqué en juin que le gouvernement fédéral allait « réexaminer » la Loi sur les préjudices en ligne, bien qu’une décision sur la nécessité de la réécrire ou de la réintroduire simplement reste en suspens. Le projet de loi original visait à responsabiliser les plateformes de médias sociaux pour la réduction de l’exposition aux contenus nuisibles. Une porte-parole du ministère nouvellement créé de l’Intelligence artificielle et de l’Innovation numérique, Sofia Ouslis, a confirmé que le gouvernement s’attaque sérieusement aux contenus haineux générés par l’IA, en particulier lorsqu’ils ciblent des groupes minoritaires vulnérables. Tout en reconnaissant que les lois existantes offrent « d’importantes protections », Ouslis a concédé qu’elles n’étaient pas conçues pour contrer la menace de l’IA générative. Elle a ajouté que le gouvernement du Premier ministre Mark Carney s’est également engagé à criminaliser la distribution de deepfakes sexuels non consensuels. « Il est vraiment nécessaire de comprendre comment les outils d’IA sont utilisés et détournés – et comment nous pouvons renforcer les garde-fous », a déclaré Ouslis, notant que ce travail est en cours et implique l’examen de cadres, la surveillance des décisions judiciaires et la consultation d’experts. Elle a conclu que dans ce domaine en évolution rapide, il est préférable d’atteindre une réglementation correcte plutôt que d’agir trop rapidement et de commettre des erreurs, citant l’Union européenne et le Royaume-Uni comme modèles.

Bien que l’UE soit à l’avant-garde de la réglementation de l’IA et de la sécurité numérique, Slane note qu’il y a toujours un sentiment que davantage doit être fait. Un défi important dans la régulation des contenus distribués par les géants des médias sociaux découle de leur nature internationale, la plupart n’étant pas des entités canadiennes. Le climat politique actuel au sud de la frontière complique davantage les choses, les entreprises technologiques américaines subissant des réglementations réduites, ce qui les rend « plus puissantes et moins responsables », observe Slane.

Peter Lewis, titulaire de la Chaire de recherche du Canada en intelligence artificielle fiable et professeur adjoint à l’Université Ontario Tech, souligne une récente « percée » qui a rendu la production de vidéos de bonne qualité remarquablement facile et abordable, souvent gratuite. « C’est vraiment accessible à presque n’importe qui avec un peu de connaissances techniques et un accès aux bons outils en ce moment », déclare-il. Alors que les grands modèles linguistiques comme ChatGPT ont mis en œuvre des garde-fous pour filtrer les contenus nuisibles, Lewis souligne le besoin urgent de garde-fous similaires dans l’espace vidéo. Il note que si les humains peuvent être horrifiés par de telles vidéos, les systèmes d’IA n’ont pas la capacité de réfléchir à leurs propres créations. Lewis suggère que si les lois existantes peuvent offrir un certain recours contre la glorification en ligne de la haine et de la violence, le développement rapide et la large disponibilité des outils d’IA générative nécessitent de nouvelles solutions technologiques et une collaboration robuste entre les gouvernements, les consommateurs, les défenseurs, les plateformes sociales et les développeurs d’applications d’IA. Il plaide pour des « mécanismes de signalement vraiment robustes et réactifs » afin de supprimer ces contenus le plus rapidement possible, bien qu’il avertisse que les outils d’IA, étant probabilistes, ne détecteront pas tout.