AI生成の誤りが豪州の殺人裁判を遅延、弁護士が謝罪
オーストラリアのベテラン弁護士が、殺人事件の法廷提出書類に、人工知能が捏造した引用や実在しない判例への引用が含まれていたとして、裁判官に公に謝罪しました。ビクトリア州最高裁判所で発生したこの重大な過ちは、世界中の司法制度に影響を与えるAI関連の事故が増加していることの新たな一例となります。
弁護士のリシ・ナスワニ氏(King’s Counselという名誉ある法廷弁護士の称号を持つ)は、殺人の罪に問われたティーンエイジャーの事件で提出された誤った情報について「全責任を負う」と述べました。裁判所の文書は、ナスワニ氏が水曜日にジェームズ・エリオット裁判官に謝罪し、「何が起こったかについて深く申し訳なく、恥ずかしい」と述べたことを確認しています。AIが生成した誤りにより、裁判の解決が24時間遅延し、エリオット裁判官はより早期の結審を望んでいました。木曜日、エリオット裁判官は最終的に、未成年であるため身元を特定できないナスワニ氏の依頼人を、精神障害を理由に殺人罪で無罪としました。
エリオット裁判官は事態に対する明確な不満を表明しました。「控えめに言っても、これらの出来事の展開方法は不満足である」と彼は弁護士たちに語り、「裁判所が弁護人による提出物の正確性に依拠できる能力は、司法の適正な運営にとって不可欠である」と強調しました。捏造された提出物には、州議会での演説からのものとされる架空の引用や、最高裁判所自体に帰属するとされる実在しない判例の引用が含まれていました。
これらの誤りは、エリオット裁判官の補佐官が引用された判例を見つけることができず、弁護団にコピーを要求した際に明らかになりました。弁護士たちはその後、引用が「存在しない」こと、そして提出物に「架空の引用」が含まれていることを認めました。彼らは、最初の引用は確認したものの、残りのAI生成情報も正確であると誤って思い込んでいたと説明しました。特に、提出物は検察官のダニエル・ポルセド氏にも送られていましたが、彼はその正確性を独自に検証していませんでした。エリオット裁判官は、最高裁判所が昨年、弁護士によるAIの使用に関するガイドラインを発行し、「その使用結果が独立して徹底的に検証されない限り、人工知能を使用することは容認できない」と明示していることを強調しました。弁護士が使用した具体的な生成AIシステムは、裁判所の文書では特定されていません。
このオーストラリアでの事件は孤立したものではありません。2023年には、米国連邦裁判官が、航空機事故による負傷の訴訟で、ChatGPTに起因するとされる架空の法務調査を提出した2人の弁護士とその法律事務所に5,000ドルの罰金を科しました。P・ケビン・キャステル裁判官は、彼らの謝罪と是正措置を認めつつも、彼らの初期の行為を悪意あるものと判断しました。同年後半には、ドナルド・トランプ元米大統領の元個人弁護士であるマイケル・コーエン氏の弁護士が提出した法廷文書に、再びAIによって生成された架空の判決が多数登場しました。コーエン氏は、「Googleツール」がそのような「AIの幻覚」を生み出す能力があるとは知らなかったと述べ、責任を認めました。大西洋を渡った英国では、高等法院のビクトリア・シャープ裁判官が6月に厳しい警告を発し、虚偽の資料を本物として提示することは、法廷侮辱罪、または最も深刻な場合には、司法妨害罪(最高で終身刑が科される犯罪)につながる可能性があると述べました。これらの事件は collectively、急速に進化する人工知能技術の統合に法制度が取り組む中で直面する重要な課題と潜在的な落とし穴を浮き彫りにしています。