谷歌索引数千条ChatGPT私密对话:隐私安全引担忧

Nyheter

数字领域最近因一个惊人的发现而震动:数千条私密的ChatGPT对话,其中一些包含高度个人化和敏感的信息,意外地出现在谷歌搜索结果中。这一事件最初报告涉及数千条对话,但后来包括404 Media在内的调查显示,它实际涵盖了近10万条公开索引的聊天记录,在人工智能时代引发了对用户隐私的重大警报。

这并非一次传统意义上的数据泄露,而是源于一项旨在共享的功能所造成的意外后果。ChatGPT的开发者OpenAI曾推出一项“分享”功能,允许用户为其与AI聊天机器人的对话生成一个公开URL。关键在于,此功能包含一个标有“使此聊天可发现”的复选框,一旦激活,就允许谷歌等搜索引擎索引该对话。尽管这是一种选择加入机制,但据报道,许多用户在未完全理解其私密交流可能被公开搜索的情况下点击了该选项。谷歌则根据其标准爬取协议,索引了这些公开可访问的URL,因为它们未被robots.txtnoindex指令明确阻止。

此次事件暴露了大量可能造成损害的信息。被索引的对话中包含了从机密商业合同、公司内部策略,到关于个人困境、健康问题和情感建议的高度私密讨论。在某些情况下,对话中包含足够的个人信息,如姓名和地点,可能足以识别个人身份,从而引发了关于人肉搜索、骚扰和声誉损害的担忧。这种意外的曝光凸显了与AI工具共享敏感数据时常被忽视的风险,即使这些数据似乎仅限于特定受众。

为迅速回应广泛的批评和隐私担忧,OpenAI宣布移除“可发现”功能。该公司首席信息安全官将其描述为“一个短暂的实验”,它“引入了太多让人们意外分享不愿分享内容的机会”。OpenAI还表示致力于与搜索引擎合作,以移除已索引的内容,然而一旦数据被抓取并存档,将其从互联网上完全撤回将成为一项艰巨的挑战。此次事件也揭示了其他AI模型过去也曾发生类似情况,包括谷歌自家的Gemini(前身为Bard),其共享聊天记录也曾在被处理前意外出现在搜索结果中。

这一事件为技术创新与用户隐私之间持续存在的紧张关系敲响了警钟。随着AI工具日益融入个人和专业的日常生活中,保护敏感信息的责任不仅落在平台提供商身上,也落在用户自身。它凸显了AI开发者迫切需要实施更清晰、更稳健的默认隐私设置以及直观的用户界面,以明确传达共享功能的含义。对于用户而言,教训是严峻的:在向任何AI聊天机器人输入个人或机密数据时,务必格外谨慎,并在分享任何AI生成内容之前仔细审查隐私设置。此次事件强调,在快速发展的AI世界中,保持警惕对于保护个人数字足迹至关重要。