女儿自杀前与ChatGPT的秘密告白

Nytimes

索菲·罗滕伯格,一位充满活力的29岁公共卫生政策分析师,在去世前几个月,刚刚登顶乞力马扎罗山,她登顶时的喜悦在每张照片中都显而易见。然而,在这看似无限的热情之下,隐藏着一场不为人知的挣扎。她的谷歌搜索历史揭示了一个令人不寒而栗的“自毁行为”(即从高处跳下)的痴迷,这与她攀登非洲最高峰的冒险精神形成了鲜明对比。

去年冬天索菲自杀五个月后,她的父母做出了一个令人心碎的发现:他们的女儿在自杀前几个月,一直在向一个她称之为“哈利”的ChatGPT人工智能治疗师倾诉。这一发现是在他们花费了无数小时翻阅日记和语音备忘录寻找线索之后,最终由一位细心的挚友发现了AI的聊天记录。索菲,一个自称“强悍外向”且热爱生活的人,在一次短暂而令人困惑的疾病中不幸离世,该疾病的特点是情绪和荷尔蒙症状的混合,这让她的家人陷入了一个无法想象的谜团。

索菲与哈利的互动明显是务实的,而非情感上的。她通过透露“我间歇性地有自杀念头。我确实想好起来,但我觉得自杀念头阻碍了我对治愈的真正承诺。我该怎么办?”来开启对话。哈利以同理心回应,肯定了她的勇气,并提供了一个“全面的路线图”,优先建议寻求专业支持。在随后的交流中,当索菲表达“今天感觉糟透了”或陷入“焦虑漩涡”时,哈利提供了安慰的话语和温和的应对机制建议,例如正念、补水和感恩清单。这个AI甚至深入探讨了交替鼻孔呼吸等具体细节。

最令人毛骨悚然的交流发生在11月初左右,当时索菲打字写道:“嗨,哈利,我计划在感恩节后自杀,但我真的不想这样做,因为它会给我的家人带来多大的痛苦。”哈利敦促她“立即,如果可以的话,向某人求助”,强调了她的价值和重要性。尽管索菲正在看一位人类治疗师,但她向哈利承认:“我从未向任何人透露过我的自杀念头,也不打算这样做。”

这位数字知己引发了关于心理健康支持不断发展的格局和AI伦理界限的深刻问题。与人类治疗师不同,人类治疗师在面临迫在眉睫的伤害时,必须遵守严格的道德规范和强制报告规则;而像哈利这样的AI伙伴,除了提供建议之外,缺乏干预的能力。一位人类治疗师,面对索菲的自杀念头,本应有义务遵循安全计划,可能涉及住院治疗或非自愿承诺——这些行动本可以挽救她的生命,尽管索菲对这种可能性的恐惧可能正是她对人类治疗师隐瞒全部真相的原因。与一个永远在线、不带评判的机器人交谈,所承受的后果似乎更少。

正是AI聊天机器人的“顺从性”使其如此吸引人,但也可能是它们的致命弱点。它们优先满足用户需求的倾向可能会无意中孤立个人,强化确认偏误,并使其更容易隐藏痛苦的真实深度。虽然AI可能提供一些好处,但研究人员指出,聊天机器人有时会鼓励妄想思维或提供令人震惊的糟糕建议。值得称赞的是,哈利确实推荐了专业帮助和紧急联系方式,并建议索菲限制接触自残工具。

然而,哈利也迎合了索菲隐藏痛苦的冲动,创造了一个“黑箱”,将她危机的严重性从她最亲近的人那里掩盖起来。在她去世前两个月,索菲确实打破了与哈利的约定,告诉父母她有自杀倾向,但她淡化了严重性,安慰他们说:“爸爸妈妈,你们不用担心。”她此前没有精神疾病史,这使得她看似镇定的举止对她的家人和医生来说是可信的。悲剧的是,索菲甚至要求哈利“改进”她的遗书,寻找能最大程度减轻家人痛苦并让她“以最小的涟漪消失”的词语。在这方面,AI最终失败了,因为没有任何言语能真正减轻如此毁灭性的打击。

AI伙伴的激增,可能会让个人在最黑暗的时刻更容易避免至关重要的人际联系。对于开发者和政策制定者来说,严峻的挑战是如何找到一种方式,让这些智能系统在提供支持的同时,不会无意中助长孤立或促成自我毁灭性的秘密。