AI的迫近危机:新闻业衰落如何动摇其自身根基
人工智能正在迅速吸收大量的新闻内容,这与人类学习的方式非常相似:构建对世界的全面理解,培养批判性思维,辨别真伪,提升写作能力,并将历史和背景浓缩成易于获取的形式。然而,一个关键问题迫在眉睫:当人工智能所依赖的新闻机构本身开始动摇时,人工智能将何去何从?如果验证真理的基石崩塌,人工智能将依靠什么基础来回答复杂问题、起草通信或协助处理复杂任务?尽管新闻业的警钟已经敲响了几十年,但我们获取信息方式的深刻转变,常被称为“搜索的终结”,现在预示着一场潜在的致命打击。这种不断演变的环境对人工智能和人类都构成了严峻挑战,因为我们正在努力驾驭一个日益错综复杂的世界。
在我们急于将生成式人工智能整合到生活几乎每个方面的过程中,我们很大程度上忽略了一个基本前提:如果没有可靠的核实事实基线,人工智能就无法有效运作。目前,这种必不可少的事实基础是由通常被称为“传统”新闻业——那种以严格的事实核查和编辑监督为基础的新闻业——精心构建和维护的。随着人工智能继续颠覆信息发现、媒体货币化和新闻消费行为的既定范式,它无意中削弱了为它提供其所严重依赖的核实事实的行业。正如民主社会在没有客观新闻业的情况下举步维艰一样,人工智能也同样如此。
苹果公司最近的研究强调了这种脆弱性,指出“生成式人工智能很容易陷入‘彻底的准确性崩溃’。”该研究进一步表明,生成式人工智能模型通常缺乏强大的逻辑推理能力,在超出一定复杂性阈值时往往无法有效运行。例如,人们可能会想到一篇详细的分析文章,比如安德鲁·马兰茨在《纽约客》中对独裁统治的探讨,它巧妙地将不同的历史线索编织在一起,以阐明当代事件。很难想象人工智能能够复制如此细致入微的洞察力,它可能会在能够提炼出定义这种深刻人类分析的突出、有影响力的观点之前就短路崩溃。当被要求“思考”得过于深入时,人工智能已经表现出崩溃的倾向。
英国广播公司(BBC)的一份报告揭示了更令人担忧的发现,该报告得出结论:人工智能难以准确总结新闻内容。在一项实验中,ChatGPT、Copilot、Gemini和Perplexity被要求总结100篇新闻报道,随后由专家记者评估每个输出。报告显示,除了包含公然的事实不准确之外,聊天机器人还经常“难以区分观点和事实,进行编辑化处理,并且通常未能包含必要的上下文信息。”令人震惊的是,这些摘要中几乎有五分之一——整整19%——包含虚假事实或歪曲引用。
进一步的研究证实了这些系统性问题。麻省理工学院斯隆管理学院的研究强调了人工智能工具编造引用和强化现有性别和种族偏见的倾向。同时,《快公司》的分析表明,人工智能驱动的新闻业中常被接受的“足够好”标准之所以被容忍,主要是因为这些工具产生的收入。
这就引出了人工智能消费新闻内容的不那么无私的原因:经济利益。至关重要的是,人工智能目前产生的大量收入都没有再投资于支撑整个技术实验的新闻机构。那么,当一个自由而准确的新闻界的核心支柱在无意中消耗和破坏它的技术重压下崩溃时,我们的社会将何去何从?指导人工智能发展的人员必须比以往任何时候都更要认识并积极支持事实核查报道的内在价值,以确保其持续存在,并进而确保人工智能本身的可靠性。