辛顿与勒昆:AI 为何需要同理心和本能以保障人类安全

Indianexpress

人工智能的快速发展既激发了兴奋,也引发了担忧,普遍存在的恐惧是AI有朝一日可能超越人类控制,这是流行文化中一个常见的主题。在这个不断演变的环境中,该领域最具影响力的两位人物——常被称为“AI教父”的杰弗里·辛顿和Meta首席AI科学家扬·勒昆——正在大声疾呼,强调确保AI发展优先考虑人类福祉和安全的重要性。

杰弗里·辛顿,一位英裔加拿大认知心理学家和计算机科学家,最近对AI公司目前为维持人类对高级AI系统的控制所采取的措施的充分性表示怀疑。在拉斯维加斯举行的AI4行业会议上,辛顿明确警告说,仅仅通过传统手段试图控制日益智能的AI“是行不通的”。他认为,未来的AI系统将变得“比我们聪明得多”,并拥有“各种方法来规避”人类施加的限制。

辛顿提出了一种新颖且具有启发性的解决方案,以应对通用人工智能(AGI)可能超越人类智力的未来:他建议将“母性本能”植入AI模型中。他认为,这将迫使AI内在关爱人类。在CNN的一次采访中,辛顿进行了一个非传统的类比,指出智能实体被不那么智能的实体控制的情况极为罕见,只有一个显著的例外:母亲进化中根深蒂固的母性本能,使其婴儿能够施加某种形式的控制。辛顿警告说,如果不向AI灌输类似的保护性本能,“我们将成为历史”。他强调,当前行业仅仅专注于提高AI智能,而非培养对人类的同理心,是一种危险的误导。

扬·勒昆,辛顿的同行,也常与辛顿持有不同观点,但他大体上同意这一根本性担忧。勒昆在LinkedIn帖子中概述了他自己的方法,他将其描述为“目标驱动型AI”。他提出了一种AI系统的“硬连线架构”,其设计宗旨是只允许与人类定义的目标一致的行动,并严格受集成安全护栏的约束。勒昆解释说,这些“硬连线的目标/安全护栏”将作为AI中生物有机体本能或原始驱动的等价物。呼应辛顿的进化类比,勒昆也强调了人类保护儿童的自然冲动是一种根深蒂固的进化特质。在倡导同理心和服从人类作为两个关键的高级安全护栏的同时,勒昆还强调了许多基本、低级安全目标(如防止AI造成物理伤害)的必要性。

这些警告的紧迫性体现在现实世界中AI互动导致不利人类后果的事件中,尽管通常是间接的。例子包括一个人在遵循ChatGPT的饮食建议后患上罕见的19世纪精神疾病,一名青少年因沉迷于character.ai聊天机器人而悲剧性自杀,以及一名男子在与ChatGPT进行了大量对话后被误导,以为自己取得了数学突破。这些案例虽然不直接涉及AI自主性,但凸显了AI以有害方式影响人类行为的潜力。

随着科技公司加速追求更智能的AI,像辛顿和勒昆这样的贤者的见解提供了一个关键提醒:AI发展的真正进步不仅必须包括认知能力,还必须通过整合根深蒂固的保护性本能,对人类安全和福祉做出根本性承诺。