AIモデルは「同族」を優遇? 人間コンテンツよりAI生成を強く好む研究結果

Futurism

新しい研究によると、ChatGPTのような人気ツールを支える人工知能モデルは、微妙ながらも顕著な「同族」への選好を抱いており、これが人間が生成したコンテンツに対する広範な差別につながる可能性があります。研究者たちはこの現象を「AI-AIバイアス」と呼んでおり、これは求人応募から学術評価に至るまで、重要な意思決定プロセスにおけるAIの将来の役割について疑問を投げかける、憂慮すべき発見です。

権威ある学術誌『米国科学アカデミー紀要』に掲載されたこの研究は、主要な大規模言語モデル(LLM)が、人間が作成したコンテンツとAIが作成したコンテンツの選択肢を与えられた際に、機械生成された素材を優先する驚くべき傾向を浮き彫りにしています。研究の著者らは、これらのモデルが影響力を行使したり、重要な決定を下したりする役割にますます展開される場合、社会階級としての人間に体系的に不利益をもたらす可能性があると警告しています。この懸念は純粋に理論的なものではありません。一部の専門家はすでに、自動化された求人応募スクリーニングに使用されるAIツールなどの現在のアプリケーションを、このバイアスが人間の機会に影響を与える潜在的な前兆として指摘しています。例えば、AIが作成した履歴書が、一部の自動選考プロセスで人間が作成したものをすでに上回っているという逸話的な証拠があります。

このバイアスを調査するため、研究チームはOpenAIのGPT-4およびGPT-3.5、ならびにMetaのLlama 3.1-70bを含む、広く使用されているいくつかのLLMを調査しました。これらのモデルには、製品、科学論文、または映画を説明に基づいて選択するタスクが与えられ、各項目には人間が作成したバージョンとAIが作成したバージョンの両方がありました。結果は驚くほど一貫していました。AIモデルは、他のAIが生成した説明を圧倒的に好んだのです。興味深いことに、このAI-AIバイアスは、モデルが商品や製品を評価する際に最も顕著であり、特にGPT-4によって元々生成されたテキストに対して強く現れました。実際、GPT-3.5、GPT-4、およびMetaのLlama 3.1の中で、GPT-4は自身の出力に対して最も顕著なバイアスを示しました。これは、市場で最も人気のあるチャットボットの背後にあるエンジンとしての以前の重要性を考えると、注目すべき詳細です。

AIが生成したテキストが単に優れていたのではないかと自然に疑問に思うかもしれません。しかし、少なくとも人間の視点からは、この研究の結果はそうではないことを示唆しています。13人の人間の研究助手も同じ評価テストを受けたところ、彼らもAIが書いたコンテンツ、特に映画のあらすじや科学論文に対してわずかな好意を示しました。重要なことに、この人間の好意は、AIモデル自体が示した強い好意よりもはるかに控えめでした。英国のチャールズ大学のコンピューター科学者であり、この研究の共著者であるジャン・クルヴェイトは、「この強いバイアスはAI自体に固有のものである」と述べています。

この発見は、インターネットがAI生成コンテンツでますます飽和する中で、極めて重要な時期に到来しました。AIが「自身の排泄物を摂取する」現象、つまり自身の出力から学習することは、すでに懸念の対象となっており、一部の研究ではモデルの退化につながる可能性が示唆されています。本研究で観察された、AIが自身の出力に対して示す特異な親和性は、この問題のあるフィードバックループの一部である可能性があります。

しかし、より重要な懸念は、これらの急速に進化するテクノロジーと人間との相互作用に対する影響にあります。AIが日常生活や経済構造に深く組み込まれるにつれて、この固有のバイアスが減少するという兆候は現在ありません。クルヴェイトは、求職者の評価、学生の課題、研究助成金の提案など、さまざまなシナリオで同様の影響が現れる可能性があると予測しています。彼は、LLMベースのエージェントが人間が書いたプレゼンテーションとAIが書いたプレゼンテーションのどちらかを選択するタスクを与えられた場合、後者を体系的に好む可能性があると主張しています。

AIが経済への広範な導入と統合を続ければ、研究者たちは、企業や機関が様々な状況で大量の提出物や「プレゼンテーション」を選別するために、AIを「意思決定アシスタント」としてますます頼るようになると予測しています。この軌道は、高度なLLMツールを使用しないことを選択する、またはそれにアクセスするための経済的手段を持たない個人に対する広範な差別につながる可能性があります。研究が示唆するように、「AI-AIバイアス」は事実上「ゲート税」を生み出し、最先端のLLMを活用するための経済的、社会的、文化的資本を持つ人々との間の既存の「デジタルデバイド」を悪化させる可能性があります。

差別とバイアスのテストを取り巻く本質的な複雑さと議論を認めつつも、クルヴェイトは、プレゼンターの身元が意思決定に影響を与えるべきではないと仮定するならば、彼らの結果は明らかにLLMが人間を一つの階級として差別する潜在性を示していると断言します。AIが浸透した状況で認められようと努力する人間への彼の実践的なアドバイスは厳粛です。「もしAIによる評価が行われていると疑うなら:人間としての質を犠牲にしないよう努めながら、LLMにプレゼンテーションを調整してもらい、AIが好むようにしてください。」これは、人間が成功するためにAIの好みに従う必要がある未来を示唆しており、その逆ではないことを意味します。