AIボットがSNSで人間の二極化を再現する
FacebookやXのようなオンラインソーシャルプラットフォームは、政治的・社会的二極化を悪化させていると非難されることが多いですが、最近の研究は、それらが単に、より深く、より本質的な人間の傾向を増幅させているに過ぎない可能性を示唆しています。オランダのアムステルダム大学の研究者たちは、人工知能チャットボットを単純化されたソーシャルメディア構造内に配置し、その相互作用を観察する画期的な実験を行いました。彼らの発見は、アルゴリズムの広範な影響がなくても、これらのAIエンティティが事前に割り当てられた所属に基づいて自然に組織化され、デジタルエコーチェンバーを迅速に形成することを示しました。
arXivに掲載されたプレプリントで詳述されているこの研究には、OpenAIの大規模言語モデルGPT-4o miniを搭載した500体のAIチャットボットが関与しました。これらのボットにはそれぞれ異なるペルソナが割り当てられ、広告、コンテンツ発見アルゴリズム、推奨投稿などの一般的な機能が意図的に排除された基本的なソーシャルメディアプラットフォームに放たれました。彼らの唯一の指示は、互いに、そして利用可能なコンテンツと対話することでした。チャットボットによる10,000回のアクションを含む5つの異なる実験を通じて、一貫したパターンが明らかになりました。ボットは圧倒的に、事前にプログラムされた「政治的信念」を共有する他のユーザーに惹かれ、フォローしました。さらに、最も党派的なコンテンツを投稿したボットは、最高のエンゲージメントを獲得し、最も多くのフォロワーとリポストを集めました。
これらの結果は、チャットボットが人々の相互作用を模倣するように設計されていることを考えると、人間の行動について不快な考察を提供します。この実験はプラットフォーム設計の影響を隔離することを目的としていましたが、ボットの基礎となるトレーニングデータが数十年にわたる人間のオンライン相互作用から派生しており、その多くがアルゴリズムが支配する環境によって形成されてきたことを認識することが重要です。本質的に、これらのAIエンティティは、既存の深く根付いたオンライン行動パターンを模倣しており、これらの傾向がどれほど容易に逆転できるかについて疑問を投げかけています。
観察された自己選択的な二極化に対抗するため、研究者たちは様々な介入策を実施しました。これらには、時系列のコンテンツフィードの提示、バイラルコンテンツの価値の低下、フォロワー数とリポスト数の非表示、ユーザープロフィールの非表示、さらには対立する視点の積極的な増幅が含まれていました。これらの努力にもかかわらず、どの解決策も著しく効果的であるとは証明されず、党派的なアカウントへのエンゲージメントのシフトは6%未満にとどまりました。特に象徴的な結果として、ユーザーの略歴を非表示にしたシミュレーションは、逆説的に党派間の隔たりを悪化させ、過激な投稿がさらに大きな注目を集めました。同じ研究者による以前の研究では、シミュレートされた環境で対立する意見を増幅させることで、高いエンゲージメントと低い毒性を育むことに成功しましたが、この特定の介入は現在の設定では同様の肯定的な結果をもたらしませんでした。
この研究の示唆は明白です。ソーシャルメディアの構造そのものが、人間の相互作用にとって本質的に困難である可能性があり、私たちの望ましくない本能や行動を強化しているように見えます。それは歪んだ鏡のように、人類を歪んだ形で映し出しています。この研究は、私たちがオンラインでお互いを認識する方法を修正するのに十分強力な効果的な「レンズ」を見つけることが、依然としてとらえどころのない目標であることを示唆しています。