職場での秘密のAI利用:豪州は「シャドウAI」抑制へ明確なルールを

Theconversation

最近の連邦政府報告書によると、オーストラリアの労働者のかなりの割合が、雇用主の知識や明示的な承認なしに、職場で生成型人工知能(Gen AI)ツールを秘密裏に使用しています。Jobs and Skills Australiaが発行した「私たちのGen AIへの移行:仕事とスキルへの影響」という報告書は、特にホワイトカラー部門で、従業員の21%から27%がマネージャーの知らないところでAIを使用していることを示す複数の調査を引用しています。

この秘密裏の採用は、驚くべきパラドックスを示しています。連邦財務長官と生産性委員会がオーストラリア国民にAIの可能性を受け入れるよう積極的に奨励している一方で、多くの労働者はその使用を隠すことを余儀なくされていると感じています。報告書で挙げられている一般的な理由には、AIの使用が「不正行為」であるという認識に加え、怠惰または能力が低いと見なされることへの恐れが含まれます。

この未承認のAIの「シャドウユース」の台頭は、オーストラリアの職場の現在のAIガバナンスにおける重大なギャップを浮き彫りにしており、従業員と雇用主の両方が適切な行動について不確実な状態にあります。このような労働者主導の実験は、特にアーリーアダプターが非公式なリーダーとして現れる分野では、ボトムアップのイノベーションの隠れた推進力となることもありますが、同時に大きなリスクも伴います。報告書は、明確なガバナンスがない場合、この非公式な実験はイノベーションの源ではあるものの、実践を断片化し、後でスケールアップや統合を困難にする可能性があると警告しています。決定的に、データセキュリティ、説明責任、コンプライアンス、および結果の不整合に関する懸念を増大させます。

実際、現実世界の事例は、規制されていないAIの使用から生じる重大な失敗の可能性を浮き彫りにしています。ビクトリア州では、ある児童保護官が、幼い子供に対する性犯罪に関する機密性の高いケースの詳細をChatGPTに入力するという衝撃的な事件がありました。これにより、ビクトリア州情報コミッショナーは、2026年11月まで州の児童保護職員によるAIツールの使用を禁止する措置を講じました。弁護士もAIの誤用で精査されており、米国、英国、オーストラリアで文書化された事例が浮上しています。これには、メルボルンでの殺人事件のためにAIが生成した誤解を招く情報に関する最近の報告も含まれます。しかし、法律専門職内でも、ルールはまだ不完全であり、州によって大きく異なります。ニューサウスウェールズ州の弁護士は、宣誓供述書の内容を生成または変更するためにAIを使用することが明示的に禁止されましたが、他の州や地域はこのような明確な立場をとっておらず、重要な倫理的義務を負う専門職でさえ規制環境が断片化されたままです。

この矛盾は、オーストラリアの生成型AIへの移行における国家的な管理を求める報告書の緊急の呼びかけを強調しています。報告書は、協調的な国家フレームワーク、集中化された能力、および全国的なデジタルスキルとAIスキルの向上を提唱しています。これは、オーストラリアの現在のAI法制度に重大な盲点が含まれており、知識システムを根本的に再考する必要があることを示すより広範な研究と一致しています。このような包括的な国家政策がない場合、雇用主は断片化され、しばしば矛盾する規制環境を乗り越えなければならず、違反のリスクが増大します。AIに関する全国統一法制は、テクノロジー自体の国境のない性質を反映し、一貫したアプローチを提供するでしょうが、その実施は現在、可能性が低いと見られています。

この複雑な状況を考慮すると、秘密のAI使用を抑制しようとする雇用主は、より明確なポリシーを積極的に確立し、包括的なトレーニングを提供する必要があります。一部の法域で出現しつつある、不完全ではあるものの、書面によるガイダンスは基礎的な一歩となります。しかし、究極の解決策は、より堅牢で積極的な国家AIガバナンスにあります。これには、明確なポリシー、倫理ガイドライン、リスク評価、コンプライアンス監視が含まれ、労働者と雇用主の両方に必要とされる明確性を提供します。この統一されたアプローチがなければ、オーストラリアのAI変革を推進できるはずの従業員が、怠惰または不正直と誤解されることへの恐れに縛られて、イノベーターとして力を与えられることなく、影の中で活動し続ける可能性があります。