豪州裁判所のAI失態:弁護士が偽造書類を提出
著名なオーストラリアの弁護士が、殺人事件の裁判で、人工知能が生成した捏造された引用文や存在しない判例を含む法廷文書を提出したことを受け、最高裁判所の判事に謝罪しました。ビクトリア州最高裁判所で発生したこの事件は、AIに起因するエラーが世界中の司法制度を混乱させる新たな事例となりました。
弁護士のリシ・ナスワニ(Rishi Nathwani)キングス・カウンセルは、殺人の罪で起訴されたティーンエイジャーのために提出した書類の不正確さについて「全責任を負う」と述べました。ナスワニは弁護団を代表し、ジェームズ・エリオット判事に対し「発生したことについて深くお詫びし、恥じ入っております」と伝えました。AIが生成したエラーにより、裁判手続きは24時間遅延し、エリオット判事は早期の終結を望んでいました。翌日、エリオットは、ナスワニの依頼人である身元が保護された未成年者が、精神障害のため殺人罪で有罪ではないとの判決を下しました。
エリオット判事は状況に対し強い不満を表明し、「これらの出来事が展開された方法は不満足である」と述べました。彼は信頼できる法的提出の極めて重要な点を強調し、「弁護士による提出の正確性に裁判所が依拠できる能力は、司法の適切な運営にとって不可欠である」と付け加えました。欺瞞的な提出物には、州議会での演説に虚偽に帰せられた引用文や、最高裁判所からのものと称するが存在しない判例の引用が含まれていました。
これらの誤りは、エリオット判事の補佐官が引用された判例を確認しようとした際、それらが見つからず、弁護団にコピーを要求したことで明らかになりました。弁護士たちはその後、引用が「存在しない」こと、そして提出物が「架空の引用」を含んでいることを認めました。彼らは、最初の引用は確認したものの、他の引用も正確であると誤って思い込んでいたと説明しました。誤解を招く提出物は、検察官のダニエル・ポルセドゥ(Daniel Porceddu)にも送られていましたが、彼はその真実性を確認していませんでした。弁護士が使用した特定の生成AIシステムは、法廷文書では特定されていません。
このオーストラリアでの失態は、世界中の法制度が直面している同様の課題を反映しています。2023年に米国では、2人の弁護士とその事務所が、航空機事故の賠償請求で提出した書類にChatGPTに起因する架空の法的調査が含まれていたとして、連邦判事から5,000ドルの罰金を科されました。P・ケビン・キャステル判事は、彼らの悪意を認めつつも、謝罪と是正措置を評価し、より軽い制裁を選択しました。同年後半には、ドナルド・トランプ元米大統領の元個人弁護士であるマイケル・コーエン(Michael Cohen)の弁護士が提出した法的書類に、AIが捏造した裁判所の判決がさらに多く現れました。コーエンは責任を認め、法律調査に使用していたGoogleツールが「AIの幻覚」として知られるものを生成できるとは知らなかったと述べました。
司法府はこれらの新たな問題に積極的に取り組んでいます。エリオット判事は、ビクトリア州最高裁判所が昨年、弁護士によるAIの使用に関するガイドラインを発行したことに言及しました。これらのガイドラインは、「その使用の結果が独立して徹底的に検証されない限り、人工知能を使用することは許容されない」と強調しています。大西洋を挟んだ英国では、高等裁判所のビクトリア・シャープ(Victoria Sharp)判事が6月に、虚偽の資料を本物として提示することは、法廷侮辱罪、または最も深刻な場合には司法妨害罪につながる可能性があり、司法妨害罪は最高で終身刑を伴う犯罪であると警告しました。これらの事件は、世界中の法曹界と裁判所の間で高まる懸念を浮き彫りにしています。それは、人工知能の統合が、司法制度における正確性と誠実さという基本的な原則を損なうのではなく、強化することを確実にすることの必要性です。