OpenAI撤回ChatGPT功能:私密聊天曾被谷歌曝光

Fastcompany

在报告揭示私人用户对话无意中出现在谷歌搜索结果中后,OpenAI迅速从其ChatGPT平台撤回了一项有争议的自愿加入功能。此举是在Fast Company进行调查后采取的,该调查发现了包括与药物使用和性健康相关的高度敏感讨论被公开访问的案例。

此次隐私泄露源于ChatGPT应用程序内的“分享”功能。当用户选择分享对话时,他们会看到一个标有“使此聊天可被发现”的复选框。在此选项下方,以更小、更浅的文字显示了一个关键的警告:勾选此框将允许聊天出现在搜索引擎结果中。批评者认为,此提示的设计和语言模糊不清,可能误导用户在不知情的情况下公开了他们的私人对话。

在问题引起关注并在社交媒体平台引发广泛反弹的数小时内,OpenAI果断采取了行动。该公司不仅禁用了有问题的功能,还开始努力从搜索引擎索引中清除已暴露的对话。OpenAI首席信息安全官Dane Stuckey在一份公开声明中证实了这一决定,承认了这一缺陷。Stuckey表示:“最终,我们认为此功能为人们意外分享他们不打算分享的内容提供了太多机会,因此我们正在移除此选项。”他补充说,公司正在积极努力从相关搜索引擎中移除已索引的内容。这标志着OpenAI此前立场的显著逆转,此前该公司一直坚称该功能的标签足够清晰。

OpenAI的快速响应赢得了部分网络安全专家的赞扬。网络安全分析师兼SocialProof Security首席执行官Rachel Tobac赞扬了该公司在无意数据共享的程度变得明显后采取的迅速行动。Tobac评论道:“我们知道公司有时会犯错,他们可能会在网站上实施用户不理解并影响其隐私或安全的功能。”“很高兴看到ChatGPT团队在此采取迅速果断的行动,关闭该功能并把用户隐私放在首位。”

然而,并非所有反应都完全积极。尽管OpenAI的Stuckey将该功能描述为一项“短暂的实验”,但这种说法引起了AI伦理学家的担忧。牛津大学AI伦理学家Carissa Véliz对这种做法表达了更具批判性的观点。Véliz断言:“科技公司将普通民众当作小白鼠。”她强调了一个更广泛的伦理困境,即新功能在未充分预测或减轻潜在隐私风险的情况下部署到广泛的用户群,只有在引起重大公众强烈反对时才被撤回。这一事件凸显了科技公司在快速创新与确保强大的用户隐私和数据安全之间必须取得的微妙平衡,尤其是在AI工具日益融入日常生活的当下。