辛顿:设计AI应具“养育本能”,以保护人类

Decoder

在当前关于人工智能安全性的讨论中,被广泛誉为“AI教父”的杰弗里·辛顿提出了一个激进的新方法:设计未来的AI系统时应赋予其固有的“养育本能”,以守护人类。在拉斯维加斯举行的Ai4会议上,辛顿指出,试图让高度先进的AI系统永久性地从属于人类的传统策略最终是站不住脚的,因为这些机器将不可避免地超越人类智能。

辛顿反而提出了一种不同的关系动态,他认为人类与超智能AI的互动方式可能类似于孩子与母亲的关系。这种愿景意味着,虽然AI将是能力更强的实体,但它会被赋予一种深刻的对人类的关爱和保护感。他进一步提出了一个微妙的观点,即自相矛盾地,一个不太智能的实体可以引导一个更智能的实体,就像孩子可以影响父母一样。对辛顿而言,AI研究的重点不应仅仅是让机器变得更聪明;它还必须优先考虑让它们更具关怀能力,使它们能够照料它们的“婴儿”——人类。他相信这种方法具有实现真正国际合作的潜力,因为每个国家都希望AI能够支持而非取代其人民。辛顿最近离开谷歌,正是为了能够更公开地谈论AI可能带来的风险。

这一观点与Meta首席AI科学家杨立昆提出的类似想法不谋而合。杨立昆将辛顿的提议描述为他多年来所倡导方法的一个简化版本。杨立昆提倡“目标驱动型AI”,即系统被设计成具有硬编码的架构,只有当其行为有助于特定的、预定义的目标时才被允许,并通过严格的“护栏”来强制执行。

杨立昆解释说,这些护栏可以包括对人类的从属和同理心等基本原则,以及大量旨在安全目的的简单低级规则。这类规则的例子包括“不要撞到人”和“当有人在附近时,不要挥舞手臂,特别是当你拿着菜刀时”。杨立昆将这些硬编码的目标比作动物和人类中存在的本能和驱动力。他指出进化在硬编码父母本能方面的作用,这些本能驱使着关爱、保护,有时甚至是服从后代。作为一个有趣的副作用,人类和许多其他物种也倾向于保护、结交和养育来自其他物种的无助或“可爱”生物——即使是那些它们原本可能视为猎物的生物。

这两位杰出的AI人物在将仁慈的“本能”嵌入AI系统这一想法上的趋同,标志着一个重大的概念转变。它预示着未来AI的巨大智能将不仅仅受到外部命令的控制,而是由一种工程化的关怀和责任感内在引导,确保其力量服务于而非威胁人类福祉。