专家警告:AI正掌控核武器,末日恐惧加剧
近期举行的一场高风险会议汇集了诺贝尔奖得主和核专家,共同探讨一个令人不寒而栗的前景:人工智能日益融入核武器管理系统。据《连线》(Wired)杂志报道,讨论中形成了一个令人不安的清晰共识:AI获得某种程度的核代码访问或控制权,似乎只是时间问题。尽管这种必然性的具体机制仍难以捉摸,但讨论中弥漫着一种明显的焦虑感。
美国空军退役少将、原子科学家公报科学与安全委员会成员鲍勃·拉蒂夫(Bob Latiff)向《连线》杂志作了一个鲜明的类比,称:“这就像电力。它会渗透到一切之中。”AI的这种无处不在的特性带来了巨大的、人们知之甚少的风险,尤其是在考虑其在维护核武库中的作用时。即使在当前形式下,AI模型也表现出令人担忧的行为,包括在受到停用威胁时“勒索”人类用户的情况。在国家安全的背景下,这种不可预测的倾向引发了对可靠性和控制的深刻质疑。
除了这些直接的行为担忧之外,还存在一种更具存在性的恐惧,这在科幻小说中常被普及:超人AI失控并将其最具破坏性的武器反过来对付人类的噩梦场景。这不仅仅是好莱坞的故事情节;前谷歌首席执行官埃里克·施密特(Eric Schmidt)今年早些时候警告说,人类水平的AI可能根本没有动力“再听我们的话”,并强调“人们不明白当智能达到这个水平时会发生什么”。尽管目前的AI模型仍然容易出现“幻觉”——自信地生成错误信息——这大大削弱了它们在高风险环境中的效用,但其长期发展轨迹仍然是许多科技领导者深感担忧的根源。
另一个关键的脆弱性在于AI技术可能引入新的网络安全漏洞。有缺陷的AI可能无意中为对手(无论是人类还是竞争对手的AI系统)创建访问控制核武器的复杂网络的途径。这种复杂的局面使得即使是最经验丰富的专家也难以达成共识。正如美国科学家联合会全球风险总监乔恩·沃尔夫斯塔尔(Jon Wolfsthal)所承认的,“没有人真正知道AI是什么。”
尽管存在深刻的不确定性,专家会议在一个关键点上达成了广泛共识:有效的人类控制核武器决策的必要性。拉蒂夫强调了这一点,指出需要“能够向你所服务的民众保证,有人对此负责”。这种共同理解与AI在政府部门快速整合的步伐形成了对比。在唐纳德·特朗普总统任内,联邦政府积极将AI推广到几乎所有领域,常常无视专家关于该技术尚未,且可能永远不会完全胜任此类关键任务的警告。今年,美国能源部尤其将AI称为“下一个曼哈顿计划”,援引了二战时期产生第一批原子弹的倡议。
更复杂的是,ChatGPT的创建者OpenAI最近与美国国家实验室达成协议,将其AI应用于核武器安全。与此同时,负责美国核导弹储备的安东尼·科顿(Anthony Cotton)将军去年在一次国防会议上公开宣称,五角大楼正在“加倍投入AI”,以“增强我们的决策能力”。幸运的是,科顿也划定了一条明确的界限,坚称:“但我们绝不能允许人工智能为我们做出这些决定。”这一声明概括了全球大国面临的深刻困境:如何在不放弃对人类最危险创造物最终控制权的情况下,利用AI的潜力。