AI机器人如何重现社交媒体上的人类极化现象

Gizmodo

Facebook和X等在线社交平台常被指责加剧政治和社会两极分化,但最近一项研究表明,它们可能只是放大了人类更深层、更内在的倾向。荷兰阿姆斯特丹大学的研究人员进行了一项启发性的实验,将人工智能聊天机器人置于一个简化的社交媒体结构中,以观察它们的互动。他们的发现表明,即使没有算法的普遍影响,这些AI实体也会根据预先设定的归属自然地组织起来,迅速形成数字回音室。

这项详细发表在arXiv预印本上的研究涉及500个AI聊天机器人,每个都由OpenAI的大型语言模型GPT-4o mini提供支持。这些机器人被分配了不同的“人设”,然后被部署到一个基本的社交媒体平台,该平台刻意剥离了广告、内容发现算法或推荐帖子等常见功能。它们唯一的指令是相互互动并与可用的内容互动。在五项不同的实验中,每次都涉及聊天机器人10,000次操作,出现了一个一致的模式:机器人绝大多数倾向于关注并追随那些与它们预设的“政治信仰”相同的其他用户。此外,那些发布最多党派内容的机器人获得了最高的参与度,赢得了最多的关注者和转发。

鉴于这些聊天机器人旨在模仿人类的互动方式,这些结果对人类行为提供了令人不安的反映。尽管实验旨在隔离平台设计的影响,但必须承认,机器人底层的训练数据来源于几十年的人类在线互动,其中大部分已被算法主导的环境所塑造。从本质上讲,这些AI实体正在模仿预先存在的、根深蒂固的在线行为模式,这引发了关于这些倾向能否轻易逆转的问题。

为了对抗观察到的自我选择性极化现象,研究人员实施了各种干预措施。这些措施包括呈现按时间顺序排列的内容源、降低病毒式内容的价值、隐藏关注者和转发数量、隐藏用户资料,甚至积极放大对立观点。尽管做出了这些努力,但没有一个解决方案被证明是显著有效的,导致对党派账户的参与度转变不到6%。在一个特别能说明问题的结果中,隐藏用户简介的模拟反而使党派分歧恶化,极端帖子吸引了更大的关注。虽然同一研究人员之前的一项研究在模拟环境中通过放大对立观点成功地促进了高参与度和低毒性,但这项特定的干预措施在当前设置中并未产生类似的积极结果。

这项研究的启示是显而易见的:社交媒体的结构本身可能对人类互动构成了固有的挑战,似乎强化了我们不那么理想的本能和行为。它就像一个哈哈镜,以扭曲的方式将人类反射回自身。研究表明,找到足够强大的有效“透镜”来纠正我们在线上彼此感知的方式,仍然是一个难以实现的目标。