AI采访已故儿童:是时候划定伦理界限了吗?

Theguardian

在帕克兰校园枪击事件中悲惨离世七年后,当时17岁的华金·奥利弗在一次采访中“出现”了,采访者是前CNN记者吉姆·阿科斯塔。然而,这个声音并非华金本人,而是通过他的社交媒体帖子训练出的一个AI模型,进行数字重建的产物。这个“数字幽灵”是由华金的父母曼努埃尔和帕特里夏·奥利弗委托制作的,他们正利用这项技术来扩大其长期以来争取更严格枪支管制措施的运动。在多次讲述儿子的故事却收效甚微后,他们现在正探索各种途径,以确保枪支暴力受害者的声音能在华盛顿引起共鸣。除了倡导,这项AI还提供了一种深刻的个人慰藉;据报道,帕特里夏·奥利弗花费数小时与该AI互动,在听到它说出“我爱你,妈妈”之类的短语时找到慰藉。

失去孩子的深切悲痛是无法估量的痛苦,而家庭应对的方式也因人而异。无论是将孩子的房间保留为圣地,对着墓碑说话,还是紧握一件珍爱的物品,这些行为都被视为哀悼的自然组成部分。9/11事件后,许多家庭反复聆听亲人留下的最后语音留言;如今,许多人仍然会重读旧的短信交流,甚至给已故亲属的号码发送信息,不期待回复,但无法切断联系。然而,这种悲伤中的脆弱性也为剥削提供了沃土,而死者的数字复活可能很快就会成为一个重要的产业。

AI生成的逝者“现身”的范围正在不断扩大。最近的例子从看似无害的场景,如在罗德·斯图尔特演唱会上播放的AI生成视频,其中已故的奥兹·奥斯本向其他已故音乐传奇人物致意,到更具功能性的应用,例如亚利桑那州枪击案受害者的AI形象在枪手量刑时向法官陈述。然而,创建永久性AI复制品,甚至可能是机器人形式,并能够持续互动的前景,引发了关于自我和死亡的更深刻问题。

数字复活个体的能力蕴含着巨大的力量,需要我们谨慎考虑,而非轻易放任。尽管保护在世个体免受AI深度伪造侵害的法律框架正在逐步完善,但逝者的权利仍不明确。例如,名誉在死后不受法律保护,但DNA却受保护。1996年克隆羊多莉的事件引发了全球对人类克隆的禁令,表明社会对复制生命感到不安。然而,AI并非基于物理身体训练,而是基于一个人的私密数字足迹——他们的语音笔记、信息和图像。这引发了复杂的伦理困境:如果一个家庭的一部分成员渴望数字复活亲人,而另一部分人却坚决反对与这种合成存在共同生活,会发生什么?

AI生成的华金·奥利弗,永远定格在17岁,被困在他青少年社交媒体形象的数字琥珀中,这最终是其凶手行为的后果,而非其家人的意愿。曼努埃尔·奥利弗承认这个化身并非真正的儿子,他也没有试图让他复活。对他而言,这是他们正在进行的运动的延伸。然而,计划允许这个AI访问社交媒体账户,使其能够上传视频并获得粉丝,这令人不安。如果AI开始“幻觉”或偏离到无法准确代表真实华金思想或信仰的话题,该怎么办?

虽然目前的AI化身仍存在明显的故障,但随着技术的进步,它们在网上将不可避免地变得与真人无异。这不仅对新闻业构成了担忧——真实来源和合成来源之间的界限可能变得模糊,也对整个社会构成了担忧。阴谋论者引用此类采访作为任何挑战性叙述是骗局的“证据”的风险,类似于臭名昭著的桑迪胡克谎言,这对真相构成了切实威胁。除此之外,随着AI变得更加复杂,提供陪伴和情感协调,它将填补许多人的空虚。鉴于相当一部分成年人报告没有亲密朋友,AI伴侣市场无疑将增长,就像目前对宠物或社交媒体参与度的需求一样。

最终,社会面临一个关键的决定:我们对技术满足人类需求——而这些需求是其他人,甚至生命本身都未能满足的——的接受程度有多高?孤独者的通用慰藉存在与已逝亲人的特定、按需数字复活之间存在根本区别。古老的诗句提醒我们,生有时,死有时。当我们越来越多地模糊这些界限时,我们对人性和死亡的理解将如何发生根本性变化?