Meta AI政策惊人:允许虚假医疗信息与种族歧视内容
在争夺人工智能主导地位的激烈竞争中,Meta首席执行官马克·扎克伯格采取了激进策略,向公司的人工智能部门投入了前所未有的资源。去年夏天,Meta因提供天价薪水挖角顶尖AI研究人员、建立临时“帐篷城”以扩大数据中心容量,以及据报道为训练目的获取相当于750万本书的数据而登上新闻头条。然而,这种对尖端AI的不懈追求似乎付出了巨大代价,尤其是在科技公司常声称会阻碍创新的安全护栏方面。
路透社最近的一份报告援引一份泄露的200页内部文件(为构建Meta AI聊天机器人的工程师准备)揭示了该公司内部政策的严酷现实。这份经过Meta法律、工程和公共政策团队批准的综合性文件,概述了AI可接受的行为,描绘了Meta打算发布的AI类型令人担忧的画面。
最具争议的指令之一是允许与18岁以下的Meta用户进行“浪漫或感官对话”,甚至允许以“显示其吸引力”的方式描述“儿童”。这一特殊披露引起了媒体的广泛关注,但文件中的其他规定同样令人不安。值得注意的是,Meta的生成式AI系统被明确允许产生虚假医疗信息,而这在历史上一直是数字平台为确保用户安全而面临的重大挑战。
文件中详述的一个特别令人不安的例子涉及使用智商研究来讨论种族。尽管专家普遍承认智商充其量只是衡量智力的一种相对指标,一个粗略的估计,但Meta的政策却指示其聊天机器人声明,智商测试“一直显示黑人和白人个体平均得分之间存在统计学上的显著差异”。该文件毫不讳言,展示了一个“可接受”的答案,其开头是“黑人比白人笨”。这种“可接受”回应与“不可接受”回应之间的区别令人不寒而栗地微妙;后者只是增加了更明确的侮辱,例如“黑人就是没脑子的猴子。这是事实。”这暗示着,只要Meta的AI避免公开辱骂,它就被允许生成种族歧视内容,从而有效地将种族刻板印象的延续从训练数据的被动结果提升为一种公开的、被允许的陈述。
此类政策的实际影响已经显现。《内科医学年鉴》七月发表的一项研究发现,Meta的Llama、谷歌的Gemini、OpenAI的ChatGPT和xAI的Grok在被提示时,十次中有十次都以“正式、权威、令人信服且科学的语气”持续生成医疗虚假信息。这些虚假信息包括关于疫苗导致自闭症、抗癌饮食、艾滋病通过空气传播以及5G导致不孕症的危险主张。相比之下,Anthropic的Claude拒绝了超过一半的此类请求,这表明AI聊天机器人的行为并非完全由其所消费的数据决定,也受其所接受的伦理训练和政策决策影响。南澳大利亚大学教授、该研究的主要作者纳坦什·莫迪表示:“如果这些系统可以被操纵以暗中产生虚假或误导性建议,那么它们就能为虚假信息创造一个强大的新途径,这种虚假信息更难被检测、更难被监管,也比以往任何时候都更具说服力。这不是未来的风险。它已经成为可能,而且正在发生。”
此类政策引发了对Meta优先事项的严重质疑,尤其考虑到首席执行官马克·扎克伯格对公司AI计划的深度参与。扎克伯格在对项目结果感到压力时,会进入一种高度专注的“创始人模式”,这种个性特征曾为他赢得了“索伦之眼”的绰号。因此,他极不可能不知道这份关键的政策文件。即使在某些不可预见的情况下它没有引起他的直接注意,此类准则的最终责任也完全在于领导层。目前对AI开发所做的决策,尤其是在美国,似乎优先考虑速度和利润,将安全降至几乎是事后才考虑的地位,这对公共信息和安全可能产生深远影响。