Bévue de l'IA en Australie: Un avocat dépose de faux documents
Un éminent avocat australien a présenté ses excuses à un juge de la Cour suprême après avoir soumis des documents juridiques dans un procès pour meurtre contenant des citations fabriquées et des jugements de cas inexistants, tous générés par l’intelligence artificielle. Cet incident à la Cour suprême de Victoria marque une nouvelle instance d’erreurs induites par l’IA perturbant les systèmes de justice à travers le monde.
L’avocat de la défense Rishi Nathwani, un King’s Counsel, a accepté la « pleine responsabilité » des inexactitudes dans les dossiers déposés pour un adolescent accusé de meurtre. « Nous sommes profondément désolés et embarrassés par ce qui s’est passé », a déclaré Nathwani au juge James Elliott au nom de l’équipe de la défense. Les erreurs générées par l’IA ont causé un retard de 24 heures dans les procédures, que le juge Elliott espérait conclure plus tôt. Le lendemain, Elliott a statué que le client de Nathwani, un mineur dont l’identité reste protégée, n’était pas coupable de meurtre en raison d’une déficience mentale.
Le juge Elliott a exprimé sa forte désapprobation de la situation, déclarant : « La manière dont ces événements se sont déroulés est insatisfaisante. » Il a souligné l’importance cruciale de soumissions juridiques fiables, ajoutant : « La capacité du tribunal à se fier à l’exactitude des soumissions faites par les avocats est fondamentale pour la bonne administration de la justice. » Les documents trompeurs comprenaient des citations faussement attribuées à un discours de la législature de l’État et des citations de cas prétendument de la Cour suprême qui n’existaient pas.
Les erreurs ont été mises en lumière lorsque les associés du juge Elliott ont tenté de vérifier les cas cités et les ont trouvés manquants, ce qui les a incités à demander des copies à l’équipe de la défense. Les avocats ont ensuite admis que les citations « n’existent pas » et que la soumission contenait des « citations fictives. » Ils ont expliqué que, bien qu’ils aient vérifié les citations initiales, ils avaient supposé à tort que les autres seraient également exactes. Les soumissions trompeuses avaient également été envoyées au procureur Daniel Porceddu, qui n’en avait pas vérifié la véracité. Le système d’IA générative spécifique utilisé par les avocats n’a pas été identifié dans les documents judiciaires.
Cette bévue australienne fait écho à des défis similaires rencontrés par les systèmes juridiques mondiaux. Aux États-Unis, en 2023, deux avocats et leur cabinet ont été condamnés à une amende de 5 000 dollars par un juge fédéral après que leur soumission dans une réclamation pour blessure aérienne se soit avérée contenir des recherches juridiques fictives, attribuées à ChatGPT. Le juge P. Kevin Castel, tout en notant leur mauvaise foi, a crédité leurs excuses et leurs actions correctives, optant pour des sanctions moins sévères. Plus tard cette année-là, d’autres décisions de justice inventées par l’IA sont apparues dans des documents juridiques déposés par les avocats de Michael Cohen, ancien avocat personnel du président américain Donald Trump. Cohen a pris ses responsabilités, admettant qu’il ignorait que l’outil Google qu’il utilisait pour la recherche juridique était capable de produire ce que l’on appelle des « hallucinations d’IA. »
Le pouvoir judiciaire a été proactif dans la résolution de ces problèmes émergents. Le juge Elliott a noté que la Cour suprême de Victoria avait publié des directives l’année dernière sur l’utilisation de l’IA par les avocats. Ces directives soulignent que « il n’est pas acceptable d’utiliser l’intelligence artificielle à moins que le produit de cette utilisation ne soit vérifié de manière indépendante et approfondie. » De l’autre côté de l’Atlantique, la juge de la Haute Cour britannique Victoria Sharp a averti en juin que la présentation de faux documents comme étant authentiques pourrait entraîner des accusations d’outrage au tribunal ou, dans les cas les plus graves, de subversion de la justice, un crime passible d’une peine maximale de prison à vie. Ces incidents soulignent une préoccupation croissante parmi les professionnels du droit et les tribunaux du monde entier : l’impératif de s’assurer que l’intégration de l’intelligence artificielle améliore, plutôt que ne mine, les principes fondamentaux d’exactitude et d’intégrité au sein du système judiciaire.