AI生成错误致澳大利亚谋杀案审判延期,律师致歉

Fastcompany

澳大利亚一名资深律师在向法官公开道歉,此前他提交的谋杀案法律文书包含了由人工智能捏造的引文和对不存在判例的引用。这起发生在维多利亚州最高法院的重大失误,标志着人工智能相关事故在全球司法系统中日益增多的又一个案例。

辩护律师里希·纳斯瓦尼(Rishi Nathwani),拥有享有盛誉的“御用大律师”(King’s Counsel)头衔,对提交给这起少年谋杀案的错误信息“负全部责任”。法庭文件证实,纳斯瓦尼于周三向詹姆斯·埃利奥特法官道歉,称“我们对所发生的事情深感抱歉和羞愧”。这些AI生成的错误导致案件解决延迟了24小时,而埃利奥特法官原本希望能够更早结案。周四,埃利奥特最终裁定纳斯瓦尼的委托人(因其未成年身份无法公开身份)因精神障碍不构成谋杀罪。

埃利奥特法官对这一情况明确表示不满。他对律师们说:“冒着轻描淡写的风险,这些事件的发生方式令人不满。”他强调,“法院依赖律师提交材料的准确性,这对于司法公正至关重要。”这些捏造的提交材料包括据称来自对州议会演讲的虚构引文,以及归因于最高法院本身的不存在的案例引用。

这些错误是在埃利奥特法官的助理无法找到所引用的案例,并要求辩护团队提供副本时暴露的。律师们随后承认这些引用“不存在”,并且提交的材料包含“虚构引文”。他们解释说,虽然他们核实了最初的引用,但错误地认为其余由AI生成的信息也会是准确的。值得注意的是,这些提交材料也发送给了检察官丹尼尔·波切杜(Daniel Porceddu),但他没有独立核实其准确性。埃利奥特法官强调,最高法院去年发布了关于律师使用AI的指南,明确指出:“除非经过独立彻底的核实,否则使用人工智能生成的产品是不可接受的。”法庭文件未明确指出律师们使用的具体生成式AI系统。

这起澳大利亚事件并非孤立。2023年,一名美国联邦法官对两名律师及其律师事务所处以5000美元的罚款,原因是在一起航空伤害索赔案中,他们提交了虚构的法律研究,并将其归咎于ChatGPT。P·凯文·卡斯特尔法官虽然承认了他们的道歉和纠正措施,但认为他们最初的行为是恶意。同年晚些时候,更多由AI生成的虚构法院裁决出现在美国前总统唐纳德·特朗普的私人律师迈克尔·科恩提交的法律文件中。科恩承认错误,称他不知道他用于法律研究的“谷歌工具”能够产生这种“AI幻觉”。在大西洋彼岸,英国高等法院法官维多利亚·夏普于6月发出了严厉警告,指出将虚假材料作为真实材料提交可能导致藐视法庭的指控,或在最严重的情况下,构成妨碍司法公正,这是一项最高可判处无期徒刑的罪行。这些案件共同强调了随着法律系统努力整合快速发展的人工智能技术所面临的关键挑战和潜在陷阱。