ChatGPT健康建议引发罕见精神疾病:男子误服溴化物中毒
近期发表在《内科学年鉴》上的一项病例研究详细记录了一起令人震惊的事件:一名男子在遵循人工智能聊天机器人ChatGPT的健康建议后,不慎引发了溴中毒——一种几十年来几乎未见的精神疾病。该病例凸显了在没有专业医疗监督的情况下,依据大型语言模型的信息进行自我用药或改变饮食的潜在危险。
这名60岁的男子因严重的听觉和视觉幻觉住进急诊室,他坚信邻居正在给他下毒。在接受脱水治疗后,他透露症状源于一项自我施加的、旨在完全消除盐分的严格饮食。在长达三个月的时间里,他将食物中的所有食盐(氯化钠)替换为溴化钠——一种主要用于犬类抗惊厥的受控物质,但也用于泳池清洁和农药。他表示,他的决定是基于从ChatGPT那里收集到的信息。
根据病例研究,这名男子凭借其大学营养学背景,试图进行一项个人实验以从饮食中去除氯化物。他对氯化钠负面影响的研究将他引向了ChatGPT,他在那里询问了氯化物的替代品。聊天机器人建议使用溴化物作为潜在替代品,尽管它模糊地暗示了其他用途,如清洁。这种互动导致他在线购买了溴化钠并开始了危险的方案。
对聊天机器人行为的进一步调查证实了其作用。当被问及“氯化物可以用什么替代?”时,ChatGPT直接建议“溴化钠(NaBr):用溴化物替代氯化物”。虽然该机器人随后确实要求提供上下文,并在指定“用于食物”时提供了更安全的替代品如味精,但它关键地未能发出明确警告,禁止摄入溴化钠。同样,病例研究的作者指出,当他们试图重现该场景时,AI模型没有询问用户的意图,而这对于人类医疗专业人员来说是标准做法。
该男子自我中毒导致了严重的精神病发作,其特征是偏执狂和生动的幻觉。溴中毒在21世纪虽然罕见,但在19世纪和20世纪初却是一个重大的公共卫生问题,1930年的一项研究表明,它影响了高达8%的精神病医院入院患者。病例数的下降是在美国食品药品监督管理局(FDA)于1975年至1989年间对溴化物进行管制之后。住院三周后,该男子的精神病症状缓慢消退,并完全康复。
此次事件强调了人工智能日益融入个人健康管理所带来的复杂挑战和伦理考量。尽管AI工具可以在医疗保健中提供有价值的信息和支持,正如OpenAI首席执行官Sam Altman最近宣布ChatGPT 5将对模糊或有害问题提供“安全补全”功能,以及其在理解医疗诊断方面的应用案例所示,但此病例仍是一个严峻的提醒:在处理健康相关信息,特别是涉及自我治疗或饮食调整时,人类监督和专业医疗咨询至关重要。在没有批判性辨别能力的情况下咨询AI时,有益信息和危险错误信息之间的界限可能会极其模糊。