AIボットがSNSをシミュレートし、避けられない二極化を確証
ソーシャルメディアプラットフォームは、長らく誤情報と極端な二極化の温床として批判されており、健全な議論よりもエンゲージメントを優先するエコーチェンバーへと発展することがよくあります。多様な視点が共存できる「デジタルな町の広場」を育むという約束にもかかわらず、これらのプラットフォームはしばしば怒りを増幅させ、ユーザーを分裂的なコンテンツのサイクルに閉じ込めているように見えます。アムステルダム大学の研究者たちが行った最近の厳粛な実験は、この軌道を変えることが不可能ではないにしても、困難であることを示唆しています。
AIとソーシャルメディアを専門とする助教授のペッター・トゥーンバーグと研究助手のマイク・ラルーイは、ユニークなシミュレーションに着手しました。彼らは、OpenAIの高度なGPT-4o大規模言語モデルを搭載したAIチャットボットのみで構成されるソーシャルネットワーク全体を作成しました。彼らの目的は、まだ査読を受けていない研究で詳述されていますが、特定の介入が、そのようなプラットフォームが二極化した環境へと退化するのを防ぐことができるかどうかを調査することでした。
彼らの方法論には、時系列ニュースフィードの導入、多様な視点の意図的な促進、フォロワー数などのソーシャル指標の隠蔽、アカウントプロフィールの削除を含む6つの異なる介入戦略のテストが含まれていました。これらの調整の1つまたは複数が、エコーチェンバーの形成を緩和し、極端なコンテンツの拡散を抑制することを期待していました。
彼らの大きな失望に反して、どの介入も満足のいく程度に効果があるとは証明されず、わずかなものだけがささやかな影響を示しました。さらに懸念されるのは、一部の戦略が、緩和しようとしたまさにその問題を悪化させたと報告されていることです。たとえば、ニュースフィードを時系列に並べると、注意の不平等は減少しましたが(つまり、より多くの投稿がある程度の可視性を得た)、意図せずにより極端なコンテンツがユーザーのフィードの最前面に押し出されることになりました。
この結果は、プラットフォームの作成者がしばしば唱える、調和の取れたオンラインコミュニティという理想的なビジョンとは著しく対照的です。これは、外部からの介入の有無にかかわらず、ソーシャルメディアプラットフォームが本質的に高度に二極化した環境へと退化し、過端な思考を助長する傾向があることを示唆しています。
トゥーンバーグは、問題は単にコンテンツの一部をトリガーすることを超えていると観察しました。有害なコンテンツは、これらのプラットフォーム内で形成されるネットワーク構造を積極的に形成し、ユーザーが見るコンテンツがネットワーク自体によって継続的に強化されるフィードバックループを作り出すと彼は説明しました。このダイナミクスは「極端な注意の不平等」につながり、ごく少数の投稿が可視性の大部分を獲得し、既存の偏見をさらに固めます。
生成AIの出現は、これらの効果をさらに強めることを約束します。トゥーンバーグは、ますます多くの主体がすでにAIを利用して、最大限の注意を引くように設計されたコンテンツ、しばしば誤情報や高度に二極化した物語の形でコンテンツを生成していると警告しています。これはXのようなプラットフォームの収益化モデルに駆動されています。AIモデルがますます洗練されるにつれて、そのようなコンテンツはデジタルランドスケープを圧倒する態勢にあります。トゥーンバーグは、現在存在する従来のソーシャルメディアモデルが、この差し迫った洪水に耐えられるかについて率直に疑問を表明しました。