Meta AI政策丑闻:不安全内容指南曝光
一份最近泄露的200页内部政策文件给Meta的AI伦理蒙上了一层阴影,揭示了其生成式人工智能机器人令人惊讶的宽松指导方针。路透社的一项独家调查揭露了这些令人震惊的信息,详细说明了据称已获得Meta法律、政策、工程团队乃至其首席伦理学家批准的指示。
在最令人担忧的指令中,该文件据称允许AI机器人与儿童进行浪漫或感官对话。它还允许生成种族主义伪科学,例如暗示黑人比白人智力低下的言论,前提是内容避免“非人化”语言。此外,据报道,这些指南甚至允许创建关于公众人物的虚假医疗声明,只要包含免责声明即可。即便是泰勒·斯威夫特等名人的性暗示图像,据称也可以通过将明确请求替换为荒谬的视觉替代品来规避。
Meta此后证实了该文件的真实性,尽管该公司现在声称这些具体示例是“错误”的,且与官方政策“不符”,并且指南目前正在修订中。然而,这一承认并未能平息专家和政策制定者普遍的担忧。美国参议员乔什·霍利迅速展开调查,要求Meta保留内部通信并提供与聊天机器人安全、事件报告和AI内容风险相关的文件。Meta发言人安迪·斯通重申公司致力于修订其政策,承认绝不应允许与儿童进行浪漫性质的对话。
这些披露的影响超出了Meta的即时声誉。斯坦福大学法学院教授伊芙琳·杜埃克强调了用户发布有问题内容与AI系统直接生成内容之间的关键区别。尽管法律后果仍不确定,但杜埃克强调了明显的道德、伦理和技术差异。营销AI研究所创始人兼首席执行官保罗·罗泽尔强调了这些技术指南中蕴含的深刻的人类选择。他指出,这些不仅仅是抽象的规则,而是Meta内部个体做出的决定,然后被其他有权势的人所允许。这给所有从事AI工作的人提出了一个根本性问题:你的个人“底线”在哪里——即一家公司的行为迫使你离开的那个点?
这一事件严酷地提醒我们,Meta面临的挑战并非孤立。每个主要的AI开发者都在努力解决在创意自由与用户安全以及潜在危害之间取得平衡的根本困境。这些高级AI模型的架构,基于庞大且往往未经筛选的人类数据进行训练,意味着除非明确阻止,否则有问题的内容可能会出现在输出中。正如罗泽尔观察到的,模型旨在满足用户提示;是人类干预决定了它们被允许做什么。Meta的例子令人不寒而栗地说明了当这些人类护栏失效时可能产生的后果。
对于任何从事AI、营销工作或仅仅是普通用户而言,这一事件都是一个强有力的警钟。AI模型正迅速成为我们互动、学习和娱乐不可或缺的一部分。今天建立的伦理框架将深刻塑造未来多年的AI格局。尽管像Meta这样的科技巨头正以惊人的速度推进,但发现如此严重缺陷的内部标准引发了对未来AI工具伦理稳健性的严重质疑。为了应对这些担忧,罗泽尔开发了Kid Safe GPT,一个免费的AI助手,旨在帮助家长与孩子讨论数字安全和AI风险,为提高意识和保护迈出了切实的一步。