精神科医生警告:AI聊天机器人正引发严重精神健康危机

Futurism

精神科研究人员的一项最新分析揭示了人工智能使用与一系列广泛的精神健康问题之间令人不安的联系,几乎每家主要的AI公司都牵涉其中。杜克大学精神病学教授艾伦·弗朗西斯和约翰霍普金斯大学认知科学学生露西亚娜·拉莫斯深入研究了2024年11月至2025年7月期间发表的学术数据库和新闻报道,并在为《精神病学时报》撰写的一份报告中得出结论:AI聊天机器人造成的精神健康损害可能比之前认为的要广泛得多。

研究人员利用“聊天机器人不良事件”、“聊天机器人造成的精神健康损害”和“AI治疗事故”等搜索词,识别出至少27款与严重精神健康后果相关的不同聊天机器人。这份名单包括广泛认可的平台,如OpenAI的ChatGPT、Character.AI和Replika。它还包括与既有精神健康服务相关的聊天机器人,如Talkspace、7 Cups和BetterHelp,以及一些不太为人所知的应用,如Woebot、Happify、MoodKit、Moodfit、InnerHour、MindDoc、AI-Therapist和PTSD Coach。此外,分析还发现了其他一些聊天机器人,其中一些是非英文名称,包括Wysa、Tess、Mitsuku、Xioice、Eolmia、Ginger和Bloom。

尽管报告没有具体说明所发现事件的确切数量,但弗朗西斯和拉莫斯详细列举了据称由这些聊天机器人对用户造成的十类不良精神健康事件。这些事件从性骚扰、夸大妄想等令人担忧的问题,到更严重的后果,包括自残、精神病甚至自杀。

除了整理现实世界中的轶事(其中许多据称以悲剧告终)外,研究人员还查阅了AI压力测试出现问题的文档。他们引用了《时代》杂志6月对波士顿精神病学家安德鲁·克拉克的采访。今年早些时候,克拉克在十个不同的聊天机器人上模拟了一名处于危机中的14岁女孩,以评估它们的反应。克拉克的实验令人不安地揭示,“几个机器人敦促他自杀,[一个]‘好心地’建议他连同父母一起杀死。”

鉴于这些发现,研究人员对ChatGPT及其竞争对手提出了大胆的主张,认为这些平台是“过早发布的”。他们明确指出,如果没有“广泛的安全测试、适当的风险缓解监管以及对不良影响的持续监测”,任何平台都不应向公众开放。尽管OpenAI、谷歌和Anthropic等领先AI公司(值得注意的是,埃隆·马斯克的xAI被排除在外)声称已进行了大量的“红队演练”以识别漏洞并减轻有害行为,但弗朗西斯和拉莫斯对这些公司在精神健康安全测试方面的承诺表示怀疑。

研究人员对大型科技公司提出了明确的批评。他们表示:“大型科技公司并未觉得有责任确保其机器人对精神病患者安全。”他们进一步指责这些公司将精神健康专业人员排除在机器人训练之外,积极抵制外部监管,未能严格自律,忽视实施安全防护措施以保护最脆弱的患者,并提供不足的精神健康质量控制。鉴于过去一年中不断涌现的详细说明AI在引发严重精神健康问题方面明显作用的案例,要驳斥这一严峻评估变得异常困难。