AI机器人模拟社交媒体:两极分化不可避免

Futurism

社交媒体平台长期以来一直被批评为虚假信息和极端两极分化的温床,它们常常演变成“回音壁”,将互动置于健康讨论之上。尽管承诺要建立一个多元观点可以共存的“数字小镇广场”,但这些平台似乎经常放大愤怒,将用户困在分裂内容的循环中。阿姆斯特丹大学研究人员最近进行的一项发人深省的实验表明,这种趋势即便不是不可能,也可能难以改变。

专门研究AI和社交媒体的助理教授Petter Törnberg和研究助理Maik Larooij进行了一项独特的模拟:他们创建了一个完全由AI聊天机器人组成的社交网络,这些机器人由OpenAI先进的GPT-4o大型语言模型驱动。他们的目标(这项研究尚未经过同行评审)是调查特定的干预措施是否能阻止此类平台演变为两极分化的环境。

他们的方法包括测试六种不同的干预策略,包括实施按时间顺序排列的新闻推送、刻意推广多元观点、隐藏关注者数量等社交指标,以及删除账户简介。他们希望这些调整中的一项或多项能够减轻“回音壁”的形成并遏制极端内容的传播。

令他们非常失望的是,没有一项干预措施被证明能达到令人满意的效果,只有少数显示出微不足道的影响。更令人担忧的是,据报道一些策略反而加剧了它们旨在缓解的问题。例如,虽然按时间顺序排列新闻推送确实减少了注意力不平等——意味着更多帖子获得了可见性——但它无意中将更极端的内容推到了用户推送的最前端。

这一结果与平台创建者经常宣扬的和谐在线社区的理想愿景形成了鲜明对比。它表明,无论是否有外部干预,社交媒体平台可能天生就倾向于演变为高度两极分化的环境,助长极端主义思维。

Törnberg观察到,问题不仅仅局限于触发某些内容。他解释说,有毒内容积极地塑造着这些平台内部形成的网络结构,形成一个反馈循环,用户看到的内容不断被网络本身强化。这种动态导致了“极端的注意力不平等”,极少数帖子获得了绝大多数可见性,进一步巩固了现有的偏见。

生成式AI的出现有望加剧这些影响。Törnberg警告说,越来越多的参与者已经利用AI生成旨在最大限度吸引注意力的内容,这些内容通常以虚假信息或高度两极分化的叙事形式出现,并受到X等平台货币化模式的驱动。随着AI模型变得越来越复杂,此类内容势必会淹没数字世界。Törnberg坦率地表示,他怀疑目前存在的传统社交媒体模式能否抵御这场即将到来的洪流。