豪州:AIが差別を悪化させる恐れ、人権委員が警鐘

Theguardian

オーストラリア社会への人工知能(AI)の急速な統合は、生産性の大幅な向上を約束する一方で、既存の社会的不平等を悪化させる深刻なリスクを伴うと、同国の人権委員が厳しい警告を発しました。連邦政府が今後のサミットでAIの経済的潜在能力について議論する準備を進める中、労働組合や業界団体を含む声が大きくなり、規制されなければこの技術が人種差別や性差別を固定化する可能性について警鐘を鳴らしています。

人権委員のロレイン・フィンレイ氏は、AIによる経済的利益の追求が、差別増加の代償を払うべきではないと警告しています。彼女は、AIツールの訓練に使用されるデータセットの透明性が決定的に欠如していることを強調し、これにより固有のバイアスを特定し、軽減することが困難になっていると指摘します。フィンレイ氏は、「アルゴリズムバイアス」とは、不公平が直接技術に組み込まれており、それが偏った結果につながることを意味すると説明しました。これは、「自動化バイアス」によってさらに複雑化します。人間が機械の決定にますます依存するようになり、意識することなく差別的なパターンを見落としたり、あるいは強化したりする可能性があるためです。委員会は、プライバシー法のような既存の法律を強化するとともに、専用のAI法を制定し、AIシステムのバイアスに対する厳格なテストを実施することを一貫して提唱してきました。フィンレイ氏は政府に対し、バイアス検査、監査、そして強固な人間の監視の必要性を強調し、速やかに新たな法的保護措置を確立するよう強く求めました。

委員の懸念は、労働党内でAIガバナンスの最適なアプローチに関する内部議論が巻き起こる中で浮上しています。元医師でAI研究者であるミシェル・アナンダ-ラジャ上院議員は、一部の党の方針とは著しく異なる見解を示し、すべてのオーストラリアのデータをテクノロジー企業に「開放」すべきだと提案しています。彼女の論理は、多様なローカルデータでAIモデルを訓練することで、海外のバイアスが永続するのを防ぎ、オーストラリアの生活と文化をより良く反映させることです。アナンダ-ラジャ氏は専用のAI法に反対していますが、AI訓練に使用された作品についてコンテンツ制作者が報酬を受け取るべきだと固く信じています。彼女は、国内データを開放しなければ、オーストラリアは国際的なテクノロジー大手からAIモデルを永遠に「借り続ける」リスクがあり、その機能に対する監督や洞察を欠くと主張します。

AIバイアスの証拠は、国内外で既に増加しています。研究は、医療や人材採用など、重要な分野で差別的な結果が明らかになっています。例えば、5月に発表されたオーストラリアの研究では、AI採用担当者による面接を受けた求職者が、アクセントや障害の有無に基づいて差別を受ける可能性があることが判明しました。アナンダ-ラジャ氏は、皮膚がんのスクリーニングを別の例として挙げ、AIツールにおけるアルゴリズムバイアスが患者の不平等な治療につながる可能性があると述べ、機密情報を保護しつつ、包括的で多様なオーストラリアのデータでモデルを訓練する必要性を強調しました。

データの「開放」を解決策の一部と見なす人もいますが、他の専門家は多角的なアプローチの必要性を強調しています。ラ・トローブ大学のAI専門家であるジュディス・ビショップ氏は、より多くのオーストラリアのデータがAI訓練を改善する可能性があることを認めつつ、外国のデータセットで訓練された米国モデルへの過度な依存に警告しています。しかし、彼女はこれがより広範な解決策の一要素に過ぎないと強調します。同様に、eSafety委員のジュリー・インマン・グラント氏も、AI訓練データの透明性不足について懸念を表明しています。彼女はテクノロジー企業に対し、データソースの透明化、堅牢な報告ツールの開発、そして製品が多様で正確かつ代表的なデータを使用していることを保証するよう求めています。インマン・グラント氏は、「生成AI開発の不透明性」が深く問題であると指摘し、特に開発が少数の企業に集中していることを考慮すると、大規模言語モデルが「有害なバイアス(狭義または有害なジェンダー規範や人種的偏見を含む)を増幅させ、さらには加速させる」可能性があるという懸念を提起し、特定の声や視点が脇に追いやられるリスクがあると述べました。

これらの専門家たちの全体的な見解は、AIが計り知れない可能性を提供する一方で、オーストラリアにおけるその開発と展開には、既存の分断を深めるのではなく、すべての人々に公平かつ公正に奉仕することを確実にするために、緊急の規制上の注意、データ多様性へのコミットメント、そして揺るぎない透明性が求められるというものです。連邦経済サミットおよび政治界で進行中の議論は、AIの未来を航海するには、特に知的財産権とプライバシー保護に関して、イノベーションと倫理的責任との間の慎重なバランスが必要であるという認識が深まっていることを反映しています。メディアおよび芸術団体は、これらが「横行する盗難」の脅威にさらされていると懸念しています。