AI对新闻业的威胁:求证事实的信任危机
人工智能系统正迅速融入我们的日常生活,它们通常会消费大量的 H 新闻内容,其目的与人类的努力惊人地相似:形成对世界的细致理解,磨练批判性思维,辨别真伪,提升沟通技巧,并将历史置于语境之中。然而,一个根本性的问题迫在眉睫:当AI所依赖的新闻机构开始崩溃时,AI将何去何从?这些系统将凭借怎样的核实真相基础来回答我们的问题,起草我们的通信,甚至执行复杂的任务?尽管传统新闻业的衰落已是数十年来令人担忧的问题,但生成式AI的出现,加上我们所知的“搜索终结”的可能性,现在感觉像是一种深刻的生存威胁。这一转变不仅对AI的能力,也对人类驾驭日益复杂世界的能力构成了关键影响。
在我们急于将生成式AI嵌入社会各个方面的过程中,我们可能忽视了一个关键的依赖关系:如果没有可靠的核实事实基线,AI就无法有效运作。目前,这一基本基础由通常被称为“传统”新闻业的行业精心构建和维护——这是一个以严格的事实核查和编辑监督为特征的行业。矛盾的是,尽管AI承诺将彻底改变搜索、媒体货币化和新闻消费习惯,但它同时也在侵蚀着为其提供事实基础的行业。正如民主社会离不开客观新闻业一样,先进的AI系统也无法独立存在。
面对真相的细微之处时,AI固有的脆弱性证据正在不断积累。例如,苹果公司最近的研究表明,生成式AI很容易陷入“完全的准确性崩溃”。该研究表明,这些模型往往缺乏强大的逻辑推理能力,在超过一定复杂性阈值后,难以有效地处理信息。人们可能会思考,当这样的AI试图进行安德鲁·马兰茨(Andrew Marantz)在《纽约客》文章中那样复杂的历史分析时会表现如何,该文章将几个世纪以来的专制趋势与当代美国社会联系起来。风险在于AI会“短路”,无法提炼出赋予这种深刻作品影响力的细微而突出的观点。
英国广播公司(BBC)一份更令人担忧的报告证实了这些局限性,揭示了AI在准确概括新闻方面存在显著困难。当专业记者评估由领先AI模型——ChatGPT、Copilot、Gemini和Perplexity生成的100篇新闻报道摘要时,结果令人震惊。除了包含彻底的事实不准确之处外,这些聊天机器人“难以区分观点和事实,进行了编辑加工,并且经常未能包含必要的语境”。令人不安的是,近五分之一(高达19%)的摘要包含了虚假事实或歪曲的引述。
这些问题并非孤立事件。麻省理工学院斯隆管理学院的一项研究强调了AI工具伪造引文和强化现有性别和种族偏见的倾向。此外,推动AI在媒体中应用的经济驱动力,往往导致对AI驱动新闻中“足够好”标准的令人担忧的接受,将创收置于事实完整性之上。
这使我们看到了AI贪婪地消费新闻内容的一个不那么理想主义、更务实的原因:经济利益。至关重要的是,AI使用这些内容所产生的巨额收入,没有一分钱回流到资助为整个实验提供动力的G新闻机构。那么,当真实自由新闻的核心支柱在被这种草率消费它的技术重压下崩溃时,我们的社会命运将如何?为了让AI真正服务社会并保持其效用,其开发者必须紧急认识到并投入真正的价值于经过事实核查的报道,以确保其持续存在。