Meta AI承包商被曝阅览用户私密聊天,恐泄露身份信息
在一个引发严重隐私担忧的进展中,负责训练Meta人工智能(AI)系统的承包商据报道能够访问用户与该公司AI聊天机器人进行的私密对话,以及可能识别这些用户身份的数据。这一在近期《商业内幕》报道中被披露的信息,凸显了AI技术快速发展和行业普遍采用零工工人进行数据审查所固有的复杂伦理和隐私挑战。
Meta与许多领先的科技公司一样,依赖人工审查员来完善其AI模型,包括其对话式聊天机器人。这些承包商审查真实的用户互动,以帮助提高AI的理解能力、响应速度和准确性。然而,《商业内幕》的报道揭露了这些审查员接触到高度个人和敏感的交流内容,从医疗状况、婚姻问题到法律咨询,通常还伴随着可能识别相关个人身份的信息。这种做法,据报道涉及Scale AI和Alignerr等合作伙伴,与用户在与聊天机器人互动时对隐私的预期形成对比。
尽管Meta公开声明其不会使用朋友和家人之间的私人消息内容来训练其AI,并且“不训练私密内容”,但其补充隐私政策指出,“与Meta AI进行语音对话的录音、转录和相关数据”会与“协助我们改进、故障排除和训练语音识别系统的供应商和服务提供商”共享。这一政策语言似乎允许了目前受到审查的访问行为。此前也曾出现过可识别数据无意中进入训练集的情况,例如一名《商业内幕》记者的电话号码被Meta AI错误地采纳为自己的号码,导致未经请求的消息。
这个问题是围绕AI聊天机器人的更广泛隐私担忧的一部分。数据隐私公司Incogni在2025年7月的一项研究表明,包括Meta AI在内的主要生成式AI聊天机器人收集敏感信息,并且在缺乏充分透明度或用户控制的情况下,经常与第三方共享这些信息,并指出Meta.ai特别与外部合作伙伴共享姓名和联系方式。用户经常向聊天机器人倾诉非常私密的信息,通常假定存在一定程度的保密性。Meta的“发现动态”(discover feed)功能进一步使这一认知复杂化,该功能无意中导致无数用户公开分享了与Meta AI聊天机器人的极其私密对话,暴露了从财务困境到心理健康问题等私密细节。
一旦数据被纳入AI模型,就很难移除,因为公认的AI原则表明数据会不可逆转地嵌入其中。监管机构,特别是欧洲的监管机构,已经加强了对AI训练实践的审查。Meta因计划使用其平台上的公共内容进行AI训练而面临欧盟隐私监管机构的反对,其操作基于“合法利益”的法律基础并提供了退出机制。然而,专家警告称,在特定截止日期(例如2025年5月)之后提出的异议可能无法阻止过去的数据被使用。
持续的披露凸显了AI发展(依赖大量数据集进行训练)与用户隐私基本权利之间存在的关键张力。随着AI聊天机器人日益融入日常生活,公司面临越来越大的压力,要求其实施强大的数据安全措施,确保明确的用户同意,并提供关于数据收集、使用和共享实践的清晰透明度,尤其是在涉及对敏感互动进行人工审查的情况下。