AI对新闻业的威胁:动摇真相的根基
人工智能正像人类一样,在理解世界、进行批判性思考、辨别真伪、并将复杂的历史和背景综合成易于理解的形式的过程中,迅速消耗着海量信息。然而,一个关键问题迫在眉睫:当AI所依赖的新闻机构开始崩溃时,AI将何去何从?那时,AI还能依赖什么经过验证的真相基础来回答我们的问题、起草我们的通讯,甚至替代我们的工作?尽管新闻业的警钟已敲响数十年,但从传统搜索引擎向“搜索终结”的新兴转变,对新闻业构成了潜在的致命打击。这不仅对AI的未来,也对人类驾驭日益复杂世界的能力产生了深远影响。
在我们急于将生成式AI整合到生活几乎每个方面的过程中,我们很大程度上忽略了一个基本事实:如果没有一个坚实的、经过验证的事实基线,AI就无法正常运作。目前,这个至关重要的事实基础是由我们称之为“传统”新闻业精心构建和维护的,其核心是严格的事实核查和专业的编辑监督。然而,矛盾的是,尽管AI承诺彻底改变信息检索、媒体变现和新闻消费,但它同时也在削弱为其提供所依赖的验证信息的行业。正如一个民主社会不能没有客观新闻业就无法繁荣一样,AI也无法做到。
最近的研究凸显了AI准确性的脆弱性。例如,苹果公司的一项研究表明,生成式AI在轻微的刺激下也可能陷入“完全的准确性崩溃”。这些模型通常缺乏强大的逻辑推理能力,在超过一定复杂性阈值后,难以有效运作。我们可以考虑安德鲁·马兰茨在《纽约客》中对独裁政体的最新探索等复杂的分析文章,它将数千年的历史编织在一起,以理解当代事件。当AI被要求进行如此高难度的智力练习时,它可能会在形成定义这种深刻人类分析的突出、有影响力的观点之前就“短路”了。当被“逼迫思考过多”时,AI常常会崩溃。
BBC一份严厉的报告进一步证明了AI的局限性,该报告发现AI模型难以准确总结新闻。当ChatGPT、Copilot、Gemini和Perplexity被要求提炼100篇新闻报道时,专业记者对它们的总结评价很差。除了包含明显的错误事实外,聊天机器人还经常难以区分意见和事实,注入自己的编辑偏见,并经常遗漏关键背景。近五分之一(高达19%)的这些总结包含虚假事实或歪曲的引语。
挑战远不止于此。麻省理工学院斯隆管理学院的研究表明,AI工具容易捏造引用并强化现有的性别和种族偏见。此外,一些人认为,AI驱动的新闻业通常接受的“足够好”标准,之所以被容忍,主要是因为这些工具产生的收入。
而这正是AI消耗新闻业背后不那么高尚的原因:金钱。AI模型所攫取的经济价值,在很大程度上并没有被重新投入到为整个信息生态系统提供动力的新闻机构中。那么,当自由和真实新闻的核心支柱在被其粗暴吞噬的技术重压下崩溃时,我们的社会将何去何从?为了确保其自身的持续生存能力,乃至我们共享信息环境的完整性,AI的开发者必须紧急认识到事实核查报道的深远价值,并积极对其进行投资。