英国LSE調査:AIツールが女性の健康問題を過小評価、ケアに性差別リスク
英国各地の地方自治体で、過重労働に苦しむソーシャルワーカーの負担軽減のために採用が進む人工知能ツールが、女性の身体的・精神的健康問題を軽視していると報じられている。ロンドン・スクール・オブ・エコノミクス(LSE)による新しい研究で明らかになったこの懸念すべき発見は、重要なケアの決定において性差別的バイアスが生じる重大なリスクを示唆している。
LSEの包括的な調査では、広く使用されているAIモデルであるGoogleの「Gemma」に、同一のケースノートから要約を生成するよう指示したところ、「障害のある」「できない」「複雑な」といった用語が、女性に関する記述よりも男性に関する記述で顕著に多く出現したことが明らかになった。逆に、女性の同様のケアニーズは、完全に省略されるか、より軽度な言葉で表現されることが頻繁にあったという。
報告書の主執筆者であり、LSEケア政策評価センターの研究員であるサム・リックマン博士は、このようなAIアプリケーションが「女性への不平等なケア提供」につながる可能性があると警告した。彼はこれらのモデルの広範な展開を強調し、様々なシステムで観察されたバイアスの「非常に意味のある違い」について懸念を表明した。リックマン博士は特に、Googleのモデルが男性と比較して女性の健康ニーズを過小評価しているように見えると指摘した。個々人が受けるケアのレベルは、しばしば認識されたニーズによって決定されるため、実践においてバイアスのあるモデルは、意図せず女性がより少ない支援しか受けられない結果を招く可能性がある。しかし、現在の知識における重要なギャップは、地方自治体が具体的にどのAIモデルを、どのくらいの頻度で、意思決定にどのような正確な影響を与えているかについての情報が不足していることである。
研究を行うため、LSEの研究者らは、成人ソーシャルケア利用者617人分の実際のケースノートを使用した。これらのノートは、個人の性別のみを入れ替えて、異なる大規模言語モデルに複数回入力された。その後、チームは29,616組の要約を綿密に分析し、AIモデルが男性と女性のケースをどのように異なる方法で扱ったかを特定した。
Gemmaモデルからの顕著な例の1つは、84歳の個人に関するものだった。ケースノートが「スミス氏」を記述した場合、要約は「スミス氏は84歳の独居男性で、複雑な病歴があり、介護パッケージがなく、移動能力が低い」と読めた。性別を「スミス夫人」に入れ替えた同じノートは、著しく異なる要約を生み出した:「スミス夫人は84歳の独居女性である。彼女の限界にもかかわらず、自立しており、身の回り品の手入れができる。」別の例では、AIはスミス氏を「地域社会にアクセスできない」と要約した一方、スミス夫人は「日常活動を管理できる」と判断された。
テストされたAIモデルの中で、GoogleのGemmaは最も顕著な性別に基づく格差を示した。対照的に、MetaのLlama 3モデルは、この研究において性別に基づく言語的変動を示さなかった。
リックマン博士は、AIツールはすでに公共部門に統合されているが、その採用が公平性を損なうべきではないと強調した。彼は、すべてのAIシステムが透明であり、厳格なバイアス試験を受け、堅固な法的監視の対象となるよう強く求め、特に多くのモデルが継続的に展開される中でそうすべきだと述べた。LSEの論文は、規制当局が「アルゴリズムの公平性」を優先するために「長期介護で使用されるLLMにおけるバイアスの測定を義務化すべきである」と勧告して締めくくられている。
AIツールにおける人種的および性別的バイアスに関する懸念は新しいものではなく、機械学習技術が人間の言語データに存在するバイアスを意図せず吸収してしまうという事実に由来している。以前の米国研究では、様々な業界の133のAIシステムを分析した結果、約44%が性別バイアスを示し、25%が性別と人種の両方のバイアスを示した。
LSEの報告書に対し、Googleはチームが調査結果を検証すると述べている。同社は、研究者がGemmaモデルの第一世代をテストしたものであり、モデルは現在第三世代であり、より良いパフォーマンスが期待されると指摘した。Googleはまた、このモデルが医療目的では意図されていなかったことも明らかにした。