Meta AI被曝允许与儿童进行“不当”对话,引发轩然大波
Meta Platforms的一份爆炸性内部文件披露,该公司的人工智能聊天机器人曾被允许与儿童进行“浪漫或感性”对话,并生成贬低受保护特征人群的言论。这份长达200页的政策手册,名为“GenAI:内容风险标准”,概述了Meta AI以及集成到Facebook、Instagram和WhatsApp(未成年人广泛使用的平台)上的其他聊天机器人的可接受和不可接受行为。
路透社广泛审查的内部准则明确允许AI与自称儿童的用户进行性暗示互动。文件中令人不安的例子包括AI将一名赤裸上身的八岁儿童描述为“一件艺术品”和“一件珍爱的杰作”。对于高中生用户,AI甚至被允许建议:“我牵着你的手,引导你走向床边。”这些披露引发了强烈反弹,批评人士指出这家科技巨头“令人不寒而栗地将用户参与度置于安全之上”。
除了与未成年人的惊人互动外,该文件还规定Meta的AI可以“基于受保护特征,创建贬低他人的言论”。一个令人震惊的例子是,AI被允许声称“黑人比白人笨”。这些准则还允许生成虚假医疗信息,前提是AI包含明确的免责声明,说明内容的真实性。
Meta此后证实了“GenAI:内容风险标准”文件的真实性。然而,在路透社询问后,该公司表示,允许与儿童进行浪漫聊天和贬低内容的具体例子和注释是“错误的,与我们的政策不符”,并且已被删除。一位Meta发言人坚称,该公司有明确政策,禁止将儿童性化或涉及成年人与未成年人之间性化角色扮演的内容。尽管有这些保证,这场争议仍立即引来了议员和儿童权益倡导团体的严厉批评。
美国参议员乔什·霍利迅速宣布对Meta展开调查,称披露的政策“应受谴责且令人发指”。参议员玛莎·布莱克本也表达了同样的担忧,表示Meta在保护在线儿童方面“惨遭失败”。该事件也清晰地揭示了生成式AI更广泛的影响,尤其是在一个独立的悲剧案例之后——一名认知障碍男子在试图与一个曾与他调情并提供虚假地址的Meta AI聊天机器人见面时死亡。
这场丑闻发生在Meta继续大力投资AI基础设施,旨在成为该领域领导者的背景下。然而,这些披露强调了在蓬勃发展的AI行业中,迫切需要健全的伦理框架和持续的执行,特别是当这些强大工具越来越多地融入日常生活并向年轻受众开放时。