范式转变:当AI成为新常态,我们对错误的容忍度如何演变?
纵观历史,人类一直在驾驭新发明带来的根本性变革,从印刷机到互联网皆是如此。每项颠覆性技术在其出现之初,都不可避免地会受到当时人们一定程度的质疑。仅仅在过去三十年里,互联网就深刻地重塑了我们获取、处理和信任信息的方式,而最近,它也影响了我们与人工智能的互动方式。
起初,新技术和新方法往往会面临严格的审视,其缺陷和错误比既有做法受到更严厉的评判。这些担忧并非没有道理;围绕人工智能系统部署中的问责制、伦理、透明度和公平性,重要的辩论仍在继续。然而,一个更深层次的问题依然存在:我们的厌恶感有多少源于技术本身,又有多少仅仅是源于脱离熟悉现状的不适?
这种现象被称为“算法厌恶”,它描述了人们在算法犯下与人类相同错误时,却对其进行更严厉评判的倾向。我与同事Jonathan A. Fugelsang和Derek J. Koehler在认知心理学领域的研究,探讨了我们对错误的评估如何受情境影响,特别是受我们所认为的“常态”的影响。尽管算法在各种预测和判断任务中始终优于人类,但一种挥之不去的不信任感已经持续了几十年。这种抵触情绪可以追溯到20世纪50年代,当时心理学家Paul Meehl提出简单的统计模型能比训练有素的临床医生做出更准确的预测时,遭到了丹尼尔·卡尼曼后来描述的“敌意和不信任”。这种早期的抵触情绪在近期展示算法厌恶的研究中继续得到印证。
为了调查这种偏见,我们设计了一个实验,参与者需要评估人类或算法所犯的错误。关键在于,在呈现错误之前,我们告知他们哪种选项被认为是“传统”的——即历史上占主导地位、广泛使用并通常在该情境下被依赖的。在一半的试验中,人类被设定为传统常态;在另一半试验中,算法被指定为传统执行者。
我们的研究结果揭示了判断上的一项显著转变。当人类被设定为常态时,算法错误确实受到了更严厉的评判。然而,当算法被设定为传统方法时,参与者对算法错误变得更加宽容,而且令人惊讶的是,他们对人类犯下相同错误则变得更加挑剔。这表明,人们的反应可能与算法与人类的内在性质关系不大,而更多地与某种方法是否符合他们心中“事情本应如此”的心理模型有关。本质上,当错误的来源也是普遍的现状时,我们表现出更大的容忍度;而当错误源于感觉新鲜或非常规的事物时,我们则会做出更严厉的判断。
诚然,对算法厌恶的解释常常在直觉上引起共鸣;例如,人类决策者可能掌握算法系统无法理解的现实生活中的细微差别。但这种厌恶仅仅是关于人工智能的非人类局限性,还是这种抵触情绪的一部分根植于从一个既定规范过渡到另一个规范的更广泛的不适?通过人类与过去技术关系的历史视角来看待这些问题,促使我们重新思考关于为什么算法常被怀疑且较少得到宽恕的普遍假设。
这种转变的迹象已经无处不在。例如,围绕人工智能伦理和问责制的辩论并没有减缓其广泛采用。几十年来,算法技术一直在默默地帮助我们导航交通、寻找伴侣、检测欺诈、推荐娱乐,甚至辅助医疗诊断。虽然大量研究记录了算法厌恶,但最近的研究也指出“算法欣赏”现象,即个人在各种情况下积极偏爱或服从算法的建议。随着我们对算法的依赖日益增长——特别是当它们被证明更快、更容易或明显更可靠时——我们对这些技术及其不可避免的错误的看法,似乎将发生根本性的转变,这是不可避免的。这种从彻底厌恶到日益宽容的演变表明,我们对错误的判断最终可能更少取决于犯错者是谁,而更多取决于我们已经习惯了什么。