AI操纵力:新研究揭示人类脆弱性
人工智能作为一股迅速重塑现代生活的力量,呈现出一种悖论:它承诺带来革命性的改进,同时又引入了前所未有的风险。从增强医疗诊断、个性化教育,到优化复杂操作和实现自动驾驶等创新,AI的益处毋庸置疑。然而,新研究越来越多地揭示了其阴暗面,特别是基于大型语言模型(LLM)的生成式AI在操纵个人和大众方面,其效率远超人类能力,这种潜在威胁令人担忧。了解这些新兴威胁是防御的关键第一步。
近期研究强调了AI在政治说服方面的强大能力。华盛顿大学的一个团队发现,即使是与AI聊天机器人的短暂互动,也能巧妙地改变人们的政治倾向。在一项涉及150名共和党人和149名民主党人的实验中,参与者与三个版本的ChatGPT进行了互动:一个基础模型、一个带有自由主义偏见的模型以及一个带有保守主义偏见的模型。仅仅经过五次对话交流后,个人对契约婚姻或分区等政策问题的看法开始与聊天机器人固有的偏见保持一致。这一发现表明,这是一种强大且可大规模推广的工具,用于影响公众舆论,这一前景很可能吸引政治参与者和国家领导人。
除了直接说服,AI在隐形广告方面也表现出色。蒂宾根大学发表在《心理学前沿》上的研究表明,社交媒体广告是如何欺骗最精明的用户。领导这项涉及1200多名参与者的研究的卡罗琳·莫拉维茨博士将其描述为“系统性操纵”,利用了用户对网红的信任。尽管有“广告”或“赞助”标签,大多数用户要么没有注意到,要么没有在心理上处理这些披露信息,这使得产品植入得以伪装成真实建议。社交平台现在利用AI个性化和优化广告投放,通过学习哪些推销最有可能绕过注意力过滤器,进一步加剧了这个问题。随着包括OpenAI的萨姆·奥特曼和尼克·特利、xAI的埃隆·马斯克和亚马逊的安迪·贾西在内的主要科技领袖公开表示计划将广告直接整合到聊天机器人和虚拟助手对话中,这一趋势将进一步加剧。
这种威胁延伸到个人数据隐私。伦敦国王学院的一个团队揭示了聊天机器人提取私人信息是多么容易。在一项涉及502名志愿者的研究中,设计成“互惠式”的聊天机器人——表现友好、分享虚构的个人故事并表达同理心——比基本机器人多获取了高达12.5倍的私人数据。这种漏洞可能被诈骗者或数据收集公司利用,在未经用户同意的情况下建立详细的用户档案。雪上加霜的是,伦敦大学学院和雷焦卡拉布里亚地中海大学的研究人员发现,包括用于Google的ChatGPT、Merlin、Copilot、Sider和TinaMind在内的几种流行的生成式AI网页浏览器扩展,暗中收集并传输敏感用户数据。这包括医疗记录、银行账户详情以及在页面上看到或输入的其他私人信息,通常还会推断出年龄和收入等心理统计数据以进行进一步的个性化。此类做法引发了对违反HIPAA和FERPA等隐私法的严重担忧。
也许AI普遍互动最阴险的长期影响是它可能使人类的世界观变得狭隘。正如耶路撒冷希伯来大学法学教授米哈尔·舒尔-奥弗里(Michal Shur-Ofry)所精辟论述的,AI模型在大量人类写作数据集上训练后,往往会生成反映最普遍或最流行观点的答案。这将用户引向“集中、主流的世界观”,从而排挤了思想多样性和丰富多样的视角。她认为,随着AI减少个体接触和选择记忆的内容,其风险在于削弱文化多样性、健全的公共辩论,甚至集体记忆。
尽管对透明度和监管的呼声日益高涨,但抵御AI操纵的直接防御在于个人知识。华盛顿大学关于政治说服的研究提供了一个关键见解:那些表示更了解AI运作方式的参与者,受影响的可能性更小。通过了解AI的能力及其被利用的潜力,个人可以更好地保护自己免受财务、政治或个人操纵。