Erreurs d'IA: un avocat s'excuse, procès pour meurtre retardé en Australie
Un avocat principal en Australie a présenté des excuses publiques à un juge après avoir déposé des conclusions juridiques dans une affaire de meurtre qui contenaient des citations fabriquées et des références à des jugements de cas inexistants, le tout généré par intelligence artificielle. Cette erreur significative devant la Cour suprême de l’État de Victoria marque un autre incident dans une liste croissante de mésaventures liées à l’IA qui affectent les systèmes de justice dans le monde entier.
L’avocat de la défense Rishi Nathwani, qui détient le prestigieux titre juridique de King’s Counsel, a assumé la “pleine responsabilité” des informations erronées soumises dans le cas d’un adolescent accusé de meurtre. Les documents judiciaires confirment les excuses de Nathwani, présentées mercredi au juge James Elliott, déclarant: “Nous sommes profondément désolés et embarrassés par ce qui s’est passé.” Les erreurs générées par l’IA ont causé un retard de 24 heures dans la résolution de l’affaire, que le juge Elliott avait espéré conclure plus tôt. Jeudi, Elliott a finalement jugé le client de Nathwani, qui ne peut être identifié en raison de son statut de mineur, non coupable de meurtre pour cause de déficience mentale.
Le juge Elliott a exprimé une nette insatisfaction face à la situation. “Au risque d’être un euphémisme, la manière dont ces événements se sont déroulés est insatisfaisante”, a-t-il dit aux avocats, soulignant que “la capacité du tribunal à se fier à l’exactitude des soumissions faites par les avocats est fondamentale pour la bonne administration de la justice.” Les soumissions fabriquées comprenaient des citations fictives prétendument tirées d’un discours à la législature de l’État et des références de cas inexistantes attribuées à la Cour suprême elle-même.
Les erreurs ont été mises en lumière lorsque les associés du juge Elliott, incapables de localiser les cas cités, ont demandé des copies à l’équipe de la défense. Les avocats ont ensuite admis que les citations “n’existent pas” et que la soumission contenait des “citations fictives”. Ils ont expliqué que s’ils avaient vérifié les citations initiales, ils avaient supposé à tort que le reste des informations générées par l’IA serait également exact. Il est à noter que les soumissions ont également été envoyées au procureur Daniel Porceddu, qui n’a pas vérifié leur exactitude de manière indépendante. Le juge Elliott a souligné que la Cour suprême avait émis des directives l’année dernière sur l’utilisation de l’IA par les avocats, déclarant explicitement: “Il n’est pas acceptable d’utiliser l’intelligence artificielle à moins que le produit de cette utilisation ne soit vérifié de manière indépendante et approfondie.” Le système d’IA générative spécifique utilisé par les avocats n’a pas été identifié dans les documents judiciaires.
Cet incident australien n’est pas isolé. En 2023, un juge fédéral des États-Unis a imposé des amendes de 5 000 dollars à deux avocats et à leur cabinet d’avocats après qu’ils aient soumis des recherches juridiques fictives, qu’ils ont attribuées à ChatGPT, dans une réclamation pour blessure aérienne. Le juge P. Kevin Castel, tout en reconnaissant leurs excuses et leurs actions correctives, a jugé leur conduite initiale de mauvaise foi. Plus tard la même année, d’autres décisions de justice inventées, à nouveau générées par l’IA, sont apparues dans des documents juridiques déposés par les avocats représentant Michael Cohen, ancien avocat personnel du président américain Donald Trump. Cohen a accepté le blâme, déclarant qu’il ignorait que l’“outil Google” qu’il utilisait pour la recherche juridique était capable de produire de telles “hallucinations de l’IA”. Outre-Atlantique, la juge de la Haute Cour britannique Victoria Sharp a émis un avertissement sévère en juin, indiquant que la présentation de faux documents comme authentiques pourrait entraîner des accusations d’outrage au tribunal ou, dans les cas les plus graves, de perversion du cours de la justice, un crime passible d’une peine maximale de prison à vie. Ces affaires soulignent collectivement les défis critiques et les pièges potentiels alors que les systèmes juridiques sont aux prises avec l’intégration de technologies d’intelligence artificielle en évolution rapide.