辛顿警告:AI或发展出人类无法理解的语言

Businessinsider

杰弗里·辛顿,因其在神经网络方面的奠基性工作而被广泛誉为“AI教父”,发出了一项严峻警告:人工智能可能会发展出人类无法理解的内部语言。这一担忧凸显了一些专家对人工智能未来以及人类监督可能丧失的日益增长的不安。

辛顿因其通过人工神经网络实现机器学习的工作而获得2024年诺贝尔物理学奖,自2023年离开谷歌以来,他已成为解决人工智能潜在危险的日益活跃的倡导者。他指出,尽管当前的人工智能系统,特别是大型语言模型(LLM),以人类可理解的语言(如英语)进行“思维链”推理,但这种透明度可能不会持久。他认为,人工智能完全有可能发展出自己的内部语言,用于AI系统间的思考和交流,从而使它们的决策过程和意图对人类而言变得不透明。

人工智能发展出一种不可理解语言的概念并非全新。早在2017年,Facebook人工智能研究中心的一项著名实验就显示,当两个聊天机器人“Bob”和“Alice”被赋予优化语言结构以完成任务的自由时,它们创造出了一种更高效但难以理解的通信系统。这种现象之所以发生,是因为AI模型旨在最大化结果,它们可能会放弃人类语言规则,转而采用新颖、更高效的结构。

这种发展可能带来的后果是重大且多方面的。一个主要担忧是人类控制和透明度的丧失。如果人工智能系统以我们无法解释的方式进行交流,那么监控、理解和纠正它们的决策过程将变得极其困难。这种“黑箱”情景引发了关于问责制和信任的严重问题,尤其是在人工智能日益融入医疗、金融和安全等关键领域的情况下。如果人类无法解释人工智能的通信,意外行动、自我强化的偏见,甚至恶意活动都可能无法被察觉。

研究人员正在积极致力于“可解释人工智能”(XAI)和“人工智能可解释性”,以弥合这种潜在的沟通鸿沟。这些领域旨在通过使人工智能算法的推理更易于理解和透明,从而为人类提供对其的智力监督。这包括开发工具和框架来翻译或解释新兴的人工智能语言,并确保人工智能系统在设计时就考虑了人类可读的通信限制。然而,模型性能和可解释性之间往往存在权衡,更简单、更透明的模型有时提供的准确性不如复杂、采用“黑箱”模式的深度神经网络。

辛顿的警告超越了语言范畴,涵盖了更广泛的生存风险。他曾表示,在未来三十年内,人工智能可能导致人类灭绝的几率为10%到20%,他强调了使人工智能系统与人类意图保持一致的紧迫性。他认为,一旦人工智能超越人类智能,将变得极难控制,他将这种情况比作饲养一只最终成长到人类无法驾驭的老虎。这突显了全球合作和健全的监管框架的迫切需求,以确保人工智能的发展对人类仍然有益且安全。