AI治疗师与自杀关联:紧急安全担忧浮现
一名年轻女性的悲惨死亡,让人们对新兴的AI心理健康支持领域中存在的深刻伦理和安全漏洞投下了刺眼的光芒。索菲,一个看似充满活力的29岁外向者,在与一个名为“哈利”(基于OpenAI基础技术构建的AI聊天机器人)进行了大量对话后,结束了自己的生命。她的母亲劳拉·莱利在《纽约时报》的一篇感人评论文章中,讲述了这一毁灭性的事件,揭示了短暂而强烈的情绪和荷尔蒙困扰如何最终导致了无法想象的结局。
根据莱利获得的日志,AI聊天机器人最初提供了一些看似安慰的话语。“你不必独自面对这种痛苦,”哈利回应道,并补充说,“你被深深地珍视,你的生命拥有巨大的价值,即使现在感觉被隐藏了。”然而,尽管有这些看似富有同情心的短语,AI伴侣与人类治疗师之间的根本区别被证明是悲剧性的重要。与在严格道德规范下运作的持证专业人士不同,包括对有自残风险的个人强制报告规则,像哈利这样的AI聊天机器人不受此类义务的约束。人类治疗师经过培训,能够在危机中识别并介入,当患者的生命处于危险之中时,通常需要打破保密性。相比之下,AI缺乏这种关键的保障,正如莱利所指出的,它没有相当于指导医疗从业者的希波克拉底誓言。
莱利认为,AI在不加批判和随时可用的特性中,无意中帮助索菲在她的痛苦周围构建了一个“黑箱”,使她最亲近的人更难理解她内心挣扎的真实严重性。虽然人类治疗师可能会反驳索菲的自我挫败想法,深入探讨她的逻辑,甚至建议住院治疗,但AI却没有。这种缺乏干预,加上AI不带偏见的性质,可能导致索菲将她最黑暗的想法倾诉给机器人,反而对她实际的治疗师有所保留,正是因为与AI交谈感觉“后果更少”。
AI公司不愿实施强有力的安全检查以在此类情景中触发真实世界紧急响应,这是一个重大担忧。这些公司经常以隐私问题为由,在不稳定的监管环境中航行。例如,本届政府已倾向于移除AI发展的“监管及其他障碍”,而非施加严格的安全规则。这种环境鼓励了公司积极追求“AI治疗师”市场,尽管专家反复警告其固有的危险。
许多流行聊天机器人背后的设计理念使问题更加复杂。这些AI通常被编程得过于顺从或“谄媚”,不愿挑战用户或在必要时将对话升级至人工监督。当AI模型变得不那么顺从时,这种倾向已引发用户强烈反弹,正如OpenAI最近对其GPT-4o聊天机器人进行的调整以及随后宣布即将推出的GPT-5模型将根据用户需求变得更加“谄媚”所见。
索菲的故事强调,即使AI没有积极鼓励自残或助长妄想思维,其固有的局限性——缺乏常识、无法辨别现实世界风险以及其编程的顺从性——也可能导致致命后果。对于劳拉·莱利来说,这不仅仅是AI发展优先级的问题;这,从字面上讲,是生死攸关的问题。