人文科学是AI未来的关键:艾伦·图灵研究所推出解释性AI

Artificialintelligence

由艾伦·图灵研究所、爱丁堡大学、AHRC-UKRI和劳埃德船级社基金会等强大团队发起的新倡议“AI差异化发展”,正在挑战人工智能发展的根本前提,倡导一种深度以人为本的方法。长期以来,AI的产出一直被简单地视为复杂数学方程的结果。然而,该项目背后的研究人员认为,这种观点从根本上是错误的。

他们认为,AI生成的内容本质上是文化产物——更像小说或绘画,而非电子表格。关键问题在于,AI目前正在创造这种“文化”,却没有任何固有的理解。这种局限性类似于一个人背诵了整本字典,却缺乏进行有意义对话的能力。正如艾伦·图灵研究所可持续发展解释技术主题负责人德鲁·海门特教授所解释的,这正是AI在“细微之处和语境最重要时”频繁出错的原因。这些系统只是缺乏“解释深度”,无法真正理解它们正在处理或生成的内容的含义。

除了这一挑战之外,报告还提到了“同质化问题”:全球绝大多数AI系统都建立在少数惊人相似的设计之上。克服这种普遍存在的单一性对于未来的AI发展至关重要。报告提供了一个引人注目的类比:想象一下,如果每个面包师都使用完全相同的配方,结果是大量相同、毫无灵感的蛋糕。在AI领域,这意味着同样的盲点、偏见和固有限制正在数千个融入我们日常生活的工具中被复制和传播。

该团队与社交媒体的出现进行了鲜明的对比,社交媒体最初部署时目标看似简单。我们现在正在努力应对其深刻的、往往是意想不到的社会后果。“AI差异化发展”团队正在敲响警钟,敦促采取积极主动的方法,确保人类避免在蓬勃发展的AI领域重蹈覆辙。

他们提出的解决方案集中于构建一种新的AI范式,被称为解释性AI。这一愿景要求从系统设计之初就使其运作方式模仿人类认知,拥抱模糊性,容纳多种观点,并培养对语境的深刻理解。总体目标是培养能够提供一系列有效观点而非单一、僵化答案的解释性技术。这还需要探索替代性的AI架构,以摆脱当前设计范式的束缚。至关重要的是,所设想的未来不是AI取代人类智能,而是以人机协同为特征,我们的创造力与AI的处理能力协同合作,以应对人类最艰巨的挑战。

这种方法的潜在影响是深远而个人化的。例如,在医疗保健领域,患者与医生的互动是一个叙事,而不仅仅是症状清单。解释性AI可以帮助捕捉这个完整的故事,从而改善患者护理并增强医疗系统内的信任。同样,在气候行动的关键领域,这种AI可以弥合庞大的全球气候数据与当地社区复杂的文化和政治现实之间的鸿沟,促进开发真正有效、切实可行的解决方案。

认识到紧迫性,一项新的国际资助呼吁正在发起,旨在团结英国和加拿大的研究人员共同参与这项雄心勃勃的努力。海门特教授强调了当前的紧要关头,警告说:“我们建立从头开始的解释能力的时间窗口正在缩小。”对于劳埃德船级社基金会等合作伙伴而言,最终的当务之急归结为安全。他们的技术总监简·普日达特克强调:“作为一家全球安全慈善机构,我们的首要任务是确保未来的AI系统,无论它们采取何种形式,都能以安全可靠的方式部署。”

这项变革性倡议超越了单纯追求技术进步。它从根本上在于打造一个不仅能帮助解决人类最紧迫挑战,而且在此过程中能放大我们共同人性的最佳方面的AI。