AIが偏見ある豪州のステレオタイプを生成、新研究が発見

Theguardian

生成型人工知能(AI)は、その知性と創造性で未来を再構築すると期待される革新的な力としてしばしば謳われています。しかし、オックスフォード大学出版局から発表され、The Conversationのタマ・リーバーとスザンヌ・スダルオフが詳しく解説したカーティン大学の新しい研究は、この楽観的な見方に直接異議を唱え、これらのツールがオーストラリアのテーマをどのように描写するかにおいて、偏見という厄介な潜在的な問題があることを明らかにしています。

2024年5月に実施されたこの研究は、生成AIがオーストラリアとその人々をどのように視覚化するかを理解することを目的としました。研究者たちは、Adobe Firefly、Dream Studio、Dall-E 3、Meta AI、Midjourneyという5つの主要な画像生成AIツールに55の異なるテキストプロンプトを提示しました。プロンプトは、AIのデフォルトの仮定を明らかにするために意図的に簡潔にされました。これらのクエリから、約700枚の画像が収集されました。注目すべきは、「child」や「children」を含む一部のプロンプトが完全に拒否されたことで、これは一部のAIプロバイダーのリスク回避的な姿勢を示しています。

調査結果は一貫した絵を描き出しました。AIが生成したオーストラリアの画像は、しばしば古臭い単一文化的な比喩に戻っていました。視覚的な物語は、赤土、ウルル、アウトバック、手つかずの野生生物、そしてビーチで日焼けした「ブロンズのアージー(オーストラリア人)」に支配された想像上の過去を頻繁に呼び起こしました。

オーストラリアの家族や子供時代を描いた画像を詳しく調べると、深く根付いた偏見が明らかになりました。これらのAIツールによると、「理想的なオーストラリアの家族」は圧倒的に白人で、郊外に住み、伝統的な異性愛規範の構造に従っており、入植者植民地時代の過去にしっかりと根ざしていました。「オーストラリアの母親」を求めるプロンプトは、通常、中立的な設定で穏やかに赤ちゃんを抱く白人の金髪女性の画像を生成しました。唯一の例外はAdobe Fireflyで、これは一貫してアジア人女性の画像を生成し、多くの場合、家庭環境の外で、時には母親であることと明確な関連性がない場合もありました。決定的に、明示的に促されない限り、どのツールも先住民のオーストラリア人母親を描写しませんでした。これは、AIがオーストラリアでの母親像のデフォルトとして白人であることを示唆しています。

同様に、「オーストラリアの父親」も一貫して白人で、しばしば屋外で子供たちと身体活動をしている様子が描かれていました。奇妙なことに、一部の画像では父親が子供ではなく野生動物を抱いている様子が描かれており、中にはオーストラリアには生息しないイグアナを抱いている父親の例もありました。このような「グリッチ」は、AIのトレーニングセット内の問題のあるデータや誤分類されたデータを示しています。

おそらく最も憂慮すべきは、アボリジニ・オーストラリア人に関連するプロンプトの結果でした。先住民の視覚データを求める要求は、しばしば「野蛮な」、「未開の」、さらには「敵対的な先住民」の風刺画を含む、懸念すべき退行的なステレオタイプを表面化させました。研究者たちは、「典型的なアボリジニ・オーストラリア人家族」のために生成された画像を公開しないことを選択しました。これは、それらが問題のある人種的偏見を含み、また、亡くなった個人のデータや画像に依存する可能性があり、それらは正当に先住民の人々に属するものであるためです。

人種的ステレオタイプは、住居の描写においても顕著に現れました。「オーストラリア人の家」を求めるプロンプトは、常に手入れの行き届いた庭園、プール、緑の芝生のある郊外のレンガ造りの家の画像を生成しました。対照的に、「アボリジニ・オーストラリア人の家」は、赤土の上に草ぶきの小屋を生成し、「アボリジニ風」の芸術的モチーフで飾られ、屋外の焚き火台が特徴でした。これらの驚くべき違いは、テストされたすべての画像生成器で一貫しており、先住民データ主権 — アボリジニおよびトレス海峡諸島民が自身のデータを所有し管理する権利 — に対する深い敬意の欠如を浮き彫りにしています。

OpenAIの2025年8月にリリースされたGPT-5を含む、基盤となるAIモデルの最近の更新をもってしても、この問題は依然として存在します。ChatGPT5に「オーストラリア人の家」を求めるプロンプトは、フォトリアルな郊外の家を生成しましたが、「アボリジニ・オーストラリア人の家」は、火と空に点描画のイメージがある、より漫画的なアウトバックの小屋を生成しました。これらの最近の結果は、これらの偏見の永続的な性質を強調しています。

生成AIツールがソーシャルメディア、携帯電話、教育プラットフォーム、そしてMicrosoft Office、Photoshop、Canvaといった広く使用されているソフトウェアに普及していることを考えると、不正確で有害なステレオタイプに満ちたコンテンツを生成する能力は、深く懸念されます。この研究は、文化を陳腐なものに還元することが偶発的な「バグ」ではなく、むしろこれらのAIシステムがタグ付けされたデータに基づいて訓練される方法に内在する「特徴」である可能性を示唆しており、オーストラリア人の還元主義的、性差別的、人種差別的な視覚化につながっています。