IA: Faits inventés compromettent un procès pour meurtre
Dans un incident préoccupant qui met en lumière l’intersection périlleuse de l’intelligence artificielle et du système juridique, deux avocats australiens ont été mis en examen après avoir soumis des documents judiciaires truffés d’erreurs générées par l’IA dans le cadre d’un procès pour meurtre à enjeux élevés. L’affaire souligne la nécessité cruciale d’une supervision humaine rigoureuse lors de l’utilisation de l’IA générative dans des contextes professionnels, en particulier lorsque des issues judiciaires sont en jeu.
L’équipe juridique, composée de Rishi Nathwani et Amelia Beech, représentant un accusé de meurtre de 16 ans, aurait incorporé des productions d’IA non vérifiées dans leurs soumissions aux procureurs. Les documents contenaient une série d’inexactitudes flagrantes, y compris des citations légales fabriquées et un discours parlementaire mal cité. Ces “hallucinations” – erreurs inhérentes à certains modèles d’IA générative – ont déclenché une cascade de problèmes, induisant initialement la poursuite en erreur, qui a ensuite construit ses arguments sur la base des informations erronées.
C’est le juge James Elliott de la Cour suprême de Melbourne qui a finalement identifié les incohérences, révélant l’utilisation de l’IA par la défense. Confrontés, Nathwani et Beech ont admis avoir employé l’IA générative pour rédiger les documents. Ajoutant à la gravité de la situation, une nouvelle soumission ultérieure de documents prétendument corrigés a révélé d’autres erreurs générées par l’IA, y compris des références à des lois complètement inexistantes.
Le juge Elliott a condamné sans équivoque cette lacune, déclarant : “Il n’est pas acceptable d’utiliser l’IA à moins que le produit de cette utilisation ne soit vérifié de manière indépendante et approfondie.” Il a souligné que “la manière dont ces événements se sont déroulés est insatisfaisante”. Le juge a exprimé sa profonde inquiétude que l’application non contrôlée de l’IA par les avocats puisse gravement compromettre la capacité du tribunal à rendre justice, avertissant que la désinformation générée par l’IA a le potentiel de “tromper” l’ensemble du cadre juridique.
Les enjeux de cette affaire particulière étaient exceptionnellement élevés. Le défendeur mineur était accusé du meurtre d’une femme de 41 ans lors d’une tentative de vol de voiture, bien qu’il ait finalement été déclaré non coupable de meurtre pour des raisons de déficience cognitive au moment du crime. Ce résultat amplifie encore les profondes implications du contenu d’IA non vérifié influençant les procédures judiciaires, où de vraies vies et libertés sont en jeu. L’incident sert de rappel brutal des risques inhérents associés à l’intégration de technologies en évolution rapide dans des processus de prise de décision critiques sans garanties robustes et une vérification humaine méticuleuse, soulignant comment même une seule hallucination de l’IA peut profondément altérer le cours de la justice.