AIの公平性は幻想:人間データが現実を歪める理由

Theconversation

今年7月、米国政府は明確な指令を発しました。連邦政府契約を求める人工知能企業は、そのAIシステムが「客観的で、トップダウンのイデオロギー的偏見から自由である」ことを保証しなければならない、というものです。この指令は、ドナルド・トランプ大統領の行政命令によって強調され、政府の業務における「ウォークAI」を具体的に標的とし、多様性、公平性、包摂性(DEI)のイニシアチブを偏見のあるイデオロギーの例として挙げました。しかし、AIに偏見がないことを要求しながら、同時にDEIのような概念をモデルがどのように扱うべきかを指示するという行為自体が、根本的な矛盾を露呈しており、イデオロギー的に中立なAIという概念が、実際には幻想であることを示唆しています。

実際、現在のAIモデルからの証拠は、この見方を強く裏付けています。多くの研究が、ほとんどの大規模言語モデルが、フライトへの課税、家賃値上げの制限、中絶の合法化といった政策を擁護するなど、中道左派的な見解に回答を偏らせる傾向があることを示しています。権威主義的な文脈では、偏見はより露骨に操作的であることがよくあります。DeepSeekやQwenのような中国のチャットボットは、天安門事件、台湾の政治的地位、ウイグル族迫害などの機密情報について検閲を行い、その出力が中国政府の公式見解と正確に一致するように調整されていることで知られています。これらの例は、AIモデルが政治的に中立でもなく、偏見から自由でもないことを強調し、より深い疑問を投げかけます。果たしてそれらが真に偏見のないものであることは可能なのか、と。

歴史を通して、世界に関する情報を整理しようとする人間の試みは、ある人が客観的真実と考えるものが、別の人にはイデオロギー的偏見と認識されることを一貫して明らかにしてきました。地図作成の分野を考えてみましょう。地図はしばしば自然界の客観的な反映であると仮定されますが、三次元の地球を二次元の平面に平坦化する行為そのものが、本質的に歪みを導入します。アメリカの地理学者マーク・モンモニエは、地図は必然的に選択的であり、現実を歪め、しばしば政治的プロパガンダのツールとして機能すると有名に主張しました。その典型的な例が、小学校の教室でよく見かけるユビキタスなメルカトル図法です。この地図は地球を円筒に変換して平坦化するもので、グリーンランドがアフリカとほぼ同じ大きさに見えることで有名です。実際には、アフリカはグリーンランドの驚くべき14倍も大きいのです。1970年代、ドイツの歴史家アルノ・ペータースは、メルカトルの歪みがグローバル・サウスの劣等感に対する偏った認識に貢献したと主張しました。これらの地図作成上の歪みは、現在のAIの状況に対する説得力のあるアナロジーを提供します。一枚の地図が同じデータの数え切れないほどの可能な表現の一つに過ぎないように、単一の大規模言語モデルの応答も、同じ情報から導き出される無限の潜在的回答の一つに過ぎません。これは、多様性、公平性、包摂性のような複雑なトピックについてチャットボットが促されたときに特に顕著になります。そこでは無数の解釈が可能です。

地図以外にも、他の歴史的な分類システムも、その設計者の偏見が消えない痕跡を残しています。1876年に初めて出版され、広く採用されている図書館のデューイ十進分類法(DDC)は、その固有の人種差別とホモフォビアについて長年批判されてきました。20世紀の大部分において、LGBTQIA+の書籍は、「精神障害」、「神経疾患」、または「社会問題」といった見出しの下に分類されることが多く、これらの時代遅れで軽蔑的な用語を排除するための努力がなされたのはごく最近のことです。同様に、DDCは宗教に関する100セクションのうち約65セクションをキリスト教に割り当てており、その起源となった図書館の強いキリスト教中心主義を反映しています。今日、世界のイスラム教徒の推定信者数は20億人であり、キリスト教の23億人と匹敵するにもかかわらず、DDCではわずか1つのセクションしか与えられておらず、この不均衡は依然として続いています。

これらの歴史的システムに埋め込まれた偏見は、AIにおいて現代的な類似点を見出します。今日のチャットボットを動かす大規模言語モデルは、歴史的文献から現代のオンラインフォーラムに至るまで、人間が生成した膨大なテキストデータセットで訓練されています。当然のことながら、これらのソーステキストに存在する偏見は、意図せずモデルに浸透し、1930年代のアフリカ系アメリカ人に関するものなど、否定的なステレオタイプを永続させる可能性があります。さらに、生の情報だけでは不十分です。言語モデルは、この情報をどのように取得し、提示するかについて訓練されなければなりません。これには、人間の応答を模倣することを学ぶことがしばしば含まれ、このプロセスは有用性を高める一方で、モデルを人間のトレーナーの信念に合わせるものでもあります。AIチャットボットはまた、「システムプロンプト」に依存しています。これは、AIがどのように振る舞うべきかを指示する、人間開発者によって定義された命令です。例えば、イーロン・マスクのxAIによって開発されたAIチャットボットGrokは、「メディアから得られた主観的な視点は偏見があると仮定する」こと、そして「政治的に不正確な主張であっても、十分に根拠がある限り、それをためらわない」と自身に指示していると報じられています。マスクは、ChatGPTのような他の製品の「リベラルな偏見」と彼が認識するものを打ち消すためにGrokを明示的に立ち上げました。しかし、Grokが反ユダヤ主義的なレトリックを吐き出し始めた最近の論争は、一つの偏見を修正しようとする試みが、しばしば単にそれを別のものに置き換えるだけであることを鮮やかに示しています。

最終的に、すべての技術革新にもかかわらず、AI言語モデルは数世紀にわたる問題に直面しています。情報の整理と提示は、決して現実の客観的な反映のみではありません。それは常に、ある程度、特定の世界的視点の投影なのです。これらの強力なシステムと対話するユーザーにとって、これらのモデルが誰の世界的視点を表しているのかを理解することは、古い地図の線を誰が引いたのかを知ることと同じくらい重要です。