AIへの不信感:社会的弱者が抱く負の感情を研究が解明
人工知能(AI)は、医療診断から採用プロセス、さらには人々が消費するニュースに影響を与えるまで、重要な分野でひっそりと機能し、日常生活の基盤に急速に統合されています。しかし、この広範な影響力が常に公平であるとは限りません。広範な研究により、アルゴリズムの偏見が疎外されたコミュニティを不利にするケースが頻繁にあることが一貫して明らかになっています。例えば、顔認識システムはトランスジェンダーやノンバイナリーの個人を誤って分類することが多く、法執行機関で使用されるAIツールは黒人に対する不当な逮捕率の不均衡な高さと関連付けられており、アルゴリズム診断システムは障害を持つ個人にとって不可欠な医療への障壁を築く可能性があります。
これらの文書化された不平等は、重要な疑問を投げかけます。ジェンダーや人種的マイノリティ、そして障害を持つ人々は、米国のより広範な人口と比較して、AIに対してより否定的な認識を抱いているのでしょうか?社会的弱者がソーシャルテクノロジーとどのように関わるかを専門とする研究者であるオリバー・L・ハイムソン氏が主導した最近の研究は、この問いに答えようとしました。ハイムソン氏と同僚のサミュエル・レイジ・メイワーム氏、アレクシス・ショア・インバー氏、ナザニン・アンダリビ氏は、米国全土の700人以上の個人を対象に調査を行いました。サンプルには全国的に代表性のあるグループが含まれ、トランスジェンダー、ノンバイナリー、障害を持つ人々、および人種的マイノリティの参加者を意図的に過剰サンプリングすることで補強されました。この調査では、AIに対する一般的な態度、つまり生活や仕事を改善する可能性、全体的な肯定的な感情、将来の個人的な使用意図に関する信念が探られました。
調査結果は、態度に顕著な相違があることを示しています。トランスジェンダー、ノンバイナリー、および障害を持つ参加者は、シスジェンダーおよび健常者の対応者と比較して、平均してAIに対して著しく否定的な見方を持っていると一貫して報告しました。これは、これらのジェンダーマイノリティや障害を持つ個人が、専門的または医療的な状況などでAIシステムと対話せざるを得ない場合、深い懸念や不信感を抱きながらそれを行う可能性があることを示唆しています。このような結果は、AIを社会にとって普遍的に有益な避けられない力として描くテクノロジー業界で支配的な物語に直接異議を唱えるものです。一般の認識はAIの開発、採用、規制を形成する上で極めて重要であり、AIが主にすでに権力を持つ人々に奉仕する場合、社会貢献としての役割は曖昧になります。個人がAIを嫌ったり不信感を抱いたりしても使用を求められる場合、参加が減少し、信頼が損なわれ、既存の不平等が深まる可能性があります。
研究の詳細をさらに掘り下げると、ノンバイナリーの参加者がAIに対して最も否定的な態度を表明しました。トランスジェンダー全体(トランスジェンダー男性とトランスジェンダー女性の両方を含む)も、著しく否定的な見方を示しました。シスジェンダーの人々(性自認が出生時に割り当てられた性別と一致する人々)の中では、女性が男性よりも否定的な態度を報告しました。この傾向は以前の研究と一致しますが、本研究はノンバイナリーおよびトランスジェンダーの視点を含めることで範囲を大幅に拡大しています。同様に、障害を持つ参加者は健常者の参加者よりもAIに対して著しく否定的な見方を示し、この感情は特に神経多様性を持つ人々や精神疾患を管理している人々の間で顕著でした。これらの発見は、AIシステムがトランスジェンダーや障害を持つ個人を頻繁に誤って分類したり、差別を永続させたり、その他の方法で害を与えたりする方法を説明する研究の増加と一致しています。これはしばしば、AIの設計が複雑さを硬直したカテゴリに単純化するため、そのような狭い定義に反するアイデンティティと衝突するためです。この固有の単純化は、無意識のうちに社会的な偏見を複製し、強化する可能性があり、ユーザーはこれを強く認識しています。
ジェンダーアイデンティティと障害に関して観察された明確なパターンとは対照的に、本研究は人種に関してより複雑な状況を提示しました。有色人種、特に黒人の参加者は、驚くほど白人の参加者よりもAIに対して肯定的な見方を示しました。この発見は、差別的な採用アルゴリズムから不均衡な監視まで、AIシステムにおける人種的偏見の広範な先行文書化を考えると、特に複雑です。研究の著者らは、これらの結果がAIが黒人コミュニティにとってうまく機能することを示唆しているわけではないと述べています。むしろ、文書化された害に直面しても、実用的な見方、またはテクノロジーの可能性に対する希望に満ちた開放性を反映している可能性があります。今後の質的研究は、黒人個人のAIに関する批判と楽観主義の間のこの矛盾したバランスをさらに探求する可能性があります。
AI認識におけるこれらの格差は、政策と技術開発の両方に重要な意味を持ちます。疎外されたコミュニティが正当な理由でAIを信頼しない場合、具体的な措置が不可欠です。第一に、開発者と機関は意味のある同意の選択肢を提供し、雇用主、医療提供者、およびその他の団体に対し、AIがいつどのように利用されているかを公開し、さらに重要なことに、個人がペナルティなしでオプトアウトする真の機会を提供することを義務付ける必要があります。第二に、堅牢なデータ透明性とプライバシー保護が不可欠であり、人々がAIシステムに情報を提供するデータのソース、データの処理方法、および保護方法を理解できるようにする必要があります。このようなプライバシー対策は、アルゴリズムによる監視やデータの悪用をすでに経験している疎外されたグループにとって特に重要です。さらに、AIシステム開発中には、疎外されたグループへの影響を厳密にテストし評価するために追加の措置を講じるべきであり、影響を受けるコミュニティがシステムの設計に直接貢献する参加型デザインアプローチを伴う可能性があります。コミュニティがAIソリューションに反対を表明した場合、開発者は彼らの懸念に耳を傾ける準備ができていなければなりません。最終的に、疎外されたグループ(アルゴリズムによる害に最も脆弱なグループ)によって表明された否定的な態度は、AIの設計者、開発者、政策立案者にとって、彼らの取り組みを根本的に再評価するための重要なシグナルとして機能します。AIに基づいて構築される未来は、テクノロジーが不利益をもたらすリスクがある人々を良心的に考慮しなければなりません。