OpenAI与《纽约时报》诉讼升级:聊天记录访问权之争白热化
在人工智能和知识产权法不断演变的背景下,OpenAI与《纽约时报》陷入了一场激烈的法律纠纷,最新争议焦点在于用户聊天数据证据开示的范围。OpenAI已提出在正在进行的诉讼中提供2000万条用户聊天记录,这一数字远低于《纽约时报》所要求的1.2亿条记录。这场分歧凸显了法律证据开示、用户隐私以及人工智能未来发展之间复杂的相互作用。
《纽约时报》于2023年12月对OpenAI和微软提起诉讼,指控这两家科技巨头未经许可或补偿,使用其数百万篇文章训练包括ChatGPT在内的大型语言模型(LLMs),侵犯了其版权。《泰晤士报》声称,OpenAI的模型有时能够复制或“反刍”其受版权保护的内容,从而损害了其商业模式和新闻诚信。
作为证据开示阶段的一部分,《纽约时报》寻求广泛访问ChatGPT用户数据,认为这些日志对于证明涉嫌侵犯版权的程度以及反驳OpenAI的辩护至关重要。《泰晤士报》要求1.2亿条聊天记录,这表明他们正广泛努力揭示用户如何与ChatGPT互动,以发现人工智能生成源自或模仿《泰晤士报》文章内容的实例。
然而,OpenAI强烈抵制这一全面要求,称其为“越权”,对用户隐私构成重大风险。该公司坚称,其提供的2000万条聊天记录足以满足证据开示程序,并符合既定的行业标准。OpenAI首席运营官布拉德·莱特卡普(Brad Lightcap)批评《纽约时报》的要求,指出这与OpenAI对其用户做出的隐私承诺相冲突,并放弃了长期以来的隐私规范。OpenAI强调,它为用户提供了控制数据的工具,包括删除选项,并认为要求无限期保留所有用户内容(包括已删除的聊天记录)是“不恰当的请求,会开创一个糟糕的先例”。
为这场争议增添新一层复杂性的是,美国联邦法院发布了一项命令,要求OpenAI保留几乎所有与ChatGPT的用户聊天记录,包括用户已删除的记录。这项OpenAI正在上诉的保留令引发了广泛的隐私担忧。批评者认为,此类裁决可能为诉讼中的大规模数据保留开创危险先例,可能泄露数百万用户认为私密或已删除的个人对话。法律专家表示担忧,这一决定可能会损害用户对人工智能工具的信任,并对其使用产生“寒蝉效应”,因为用户可能因此不愿分享敏感信息。
这场法律战不仅限于用户聊天记录。OpenAI还反驳了《纽约时报》的证据开示请求,要求访问该报的内部人工智能训练信息和记者笔记。OpenAI辩称,这些材料与其合理使用抗辩相关,并有助于确定《泰晤士报》作品的可版权性。这种在证据开示方面的来回交锋突显了核心问题:人工智能训练背景下的合理使用参数、数字时代版权材料的定义,以及在诉讼中强制获取用户数据的程度。
该诉讼已合并至“In re: OpenAI Inc.”案,并正走向庭审,预计将对人工智能和媒体行业产生重大影响。其结果可能重新定义生成式人工智能与版权法之间的关系,塑造人工智能模型的构建和训练方式,并为日益由人工智能驱动的世界中的用户隐私确立重要先例。