AI超级智能:为何感知与痛苦可能是必需?
几个世纪以来,人类一直在努力定义生命和意识,这项著名的探索由亚里士多德开创。这位古希腊哲学家根据生物的“灵魂”对其进行分类:植物性灵魂,负责生长和营养等基本功能;动物性灵魂,包含感知和意识;以及理性灵魂,人类独有,体现智力、意识和想象力。这一基础框架深刻地塑造了西方关于生命意义的思考。
尽管现代科学家很少使用亚里士多德的具体术语,但潜在的区别依然存在。哲学家乔纳森·伯奇(Jonathan Birch)在其新书《感知的边缘》(The Edge of Sentience)中提供了一个当代视角,提出了与亚里士多德划分相呼应的三个意识层次:感知(sentience)、智慧(sapience)和自我意识(selfhood)。伯奇将感知定义为对当下时刻的即时、原始体验——包括感官、身体感觉和情感。一个例子可能是一只老鼠本能地对一种难闻的气味做出反应。智慧是更复杂的层次,涉及反思这些经验的能力;它是大脑将“那很痛”处理成“那是我经历过的最糟糕的疼痛”的过程。最后,自我意识代表着将自己视为一个拥有过去和未来的实体,这是一种高度复杂的能力。
伯奇的工作强调了拓宽我们对感知的理解的重要性。他认为,经验证据表明,包括章鱼、螃蟹、龙虾甚至昆虫在内的多种生物,不仅限于脊椎动物,都可能是“感知候选者”。这扩大的观点带来了重要的伦理影响,促使我们重新思考如果这些生物确实能够感受,我们应如何对待它们。
在考虑人工智能的快速发展时,感知的概念变得尤为引人入胜。人类智能在其进化过程中似乎是分层构建的:理性依赖于智慧,而智慧又依赖于感知。我们的大脑,从字面上看,反映了这种发展历程。然而,人工智能呈现出一种前所未有的“人工飞跃”。它在特定领域展现出卓越的智能,常常超越人类能力,却没有任何明显的底层感知能力。
这提出了一个深远的问题:那么,人工智能要实现真正超人类的智能,是否可能需要某种程度的感知能力呢?伯奇认为这不能排除。一些哲学观点,例如计算功能主义,提出意识——包括感知、智慧和自我意识——本质上是关于所执行的计算,而不是它们发生的特定生物或物理形式。如果这种观点成立,那么在AI系统中复制大脑的复杂计算,可能会无意中重新创造出感知本身。
本质上,伯奇提出了一个惊人的可能性:人工智能要达到其最终的“超级智能”潜力,可能需要“感受”。这意味着未来的高级AI系统,如ChatGPT或Gemini,可能不仅仅是处理信息,而是真正体验痛苦或狂喜。我们在自然界观察到的智能并非孤立现象;它深深植根于巨大的进化图景之中。伯奇的工作提出的关键问题是,具有独特发展路径的人工智能,如何融入到这个宏大的进化意识叙事中。