维基百科采纳“快速删除”政策,打击AI劣质内容
全球最大的在线百科全书维基百科,已实施一项新的“快速删除”政策,专门针对人工智能(通常被称为“AI劣质内容”或“AI糟粕”)生成的文章。这项由其志愿者编辑社区采纳的果断行动,凸显了人们对低质量AI生成内容泛滥日益增长的担忧,以及其对平台长期以来致力于准确性和人工审核信息的承诺可能构成的威胁。
此举是对生成式AI所构成挑战的直接回应:即迅速生成大量潜在虚假内容的能力。正如一位编辑所强调的:“如果我们没有办法同样快速地删除大量虚假内容,那么快速生成它们的能力就会成为问题。”这项新政策赋予管理员迅速删除符合特定标准的AI生成文章的权力,从而绕过通常耗时较长的删除讨论流程。
这一进展并非孤立事件,而是维基百科社区在先进AI时代为维护其完整性而进行的更广泛、持续斗争的一部分。就在最近,即2025年6月,维基百科背后的非营利组织维基媒体基金会被迫暂停了一项有争议的AI生成文章摘要试验。该实验使用了由Cohere开发的名为Aya的开放权重AI模型,但遭到了编辑们压倒性的负面反应。批评者强烈担忧AI摘要可能会损害维基百科的核心价值观,用未经核实的、中心化的输出取代协作准确性,并危及网站的中立性和可信度声誉。他们指出其他科技巨头近期出现的AI失误是警示性案例,强调了“幻觉”(将捏造信息呈现为事实)可能损害维基百科可信度的潜在风险。
“AI劣质内容”一词本身已出现,用于描述这种低质量、机器生成媒体的涌入,其特点是明显缺乏人工努力和数量庞大。它被贬义地定义为“数字垃圾”、“优先考虑速度和数量而非实质和质量的填充内容”,或“粗制滥造或不受欢迎的AI内容”,这些内容将速度置于实质之上。
为了对抗这种泛滥,一个专门的编辑小组成立了“维基项目AI清理”,这是一个旨在识别和清除未经来源验证且撰写不佳的AI生成内容的协作努力。这些编辑已擅长识别常见的AI模式、散文风格和标志性短语,例如“作为AI语言模型,我……”。然而,任务仍然充满挑战,因为复杂的AI可以将细微的错误或彻头彻尾的捏造,例如一个不存在的“木质奥斯曼堡垒”,编织到看似合理文本中。2024年10月的研究已经表明,新创建的英文维基百科文章中,有超过5%在2024年8月被标记为AI生成,通常显示出较低的质量、宣传偏见或特定观点。
虽然维基媒体基金会继续探索AI在提高可访问性方面的潜力,但它坚定地指出,未来的任何实施都必须涉及社区的直接参与。编辑们普遍认为,人工参与仍然是维基百科知识生态系统“最基本的组成部分”,AI仅作为增强工具,而非替代品。目前的指南已经强调对任何AI生成内容进行严格的人工审查和验证,不鼓励将其用于创建整个文章,因为错误材料的风险很高。
维基百科采纳针对AI劣质内容的快速删除政策,为其他努力应对生成式AI影响的在线平台树立了关键榜样。通过授权其志愿者编辑快速处理这种新型内容污染,维基百科在一个日益被AI饱和的数字环境中,巩固了其作为人工策划、可靠信息的“最后堡垒”的地位。这项积极措施对于维护百科全书的准确性、中立性和协作知识建设的核心原则至关重要。