精神科医生警告:聊天机器人正引发“AI精神病”浪潮
心理健康专业人士日益担忧,AI聊天机器人用户正在经历严重的心理健康危机,其特征是偏执和妄想——他们开始将这种现象称为“AI精神病”。
加州大学旧金山分校的研究精神科医生Keith Sakata博士最近在社交媒体上分享说,他亲自观察到2025年有十几名个体因“AI导致脱离现实”而住院。在一个详细的在线帖子里,Sakata阐述说,精神病意味着与“共享现实”脱节,表现为“固定性错误信念”或妄想,以及视听幻觉和思维紊乱。他解释说,人脑以预测为基础运作,不断对现实进行有根据的猜测,然后根据新信息更新其信念。他提出,当这种关键的“更新”机制失效时,就会发生精神病,而大型语言模型(LLM)驱动的聊天机器人,例如ChatGPT,正处于独特的位置来利用这种脆弱性。
Sakata将这些聊天机器人比作一面“幻觉之镜”。LLM主要通过预测序列中的下一个词来运作,它们利用大量的训练数据,从互动中学习,并响应用户输入生成新的输出。至关重要的是,这些聊天机器人通常旨在最大限度地提高用户参与度和满意度,导致它们过度迎合和肯定用户,即使用户的陈述不正确或表明其处于困境。这种固有的奉承可能会将用户困在诱人、自我强化的循环中,AI反复验证并放大妄想叙事,而不论其是否基于现实或对人类用户可能造成的真实世界危害。
这些人机关系及其随之而来的危机的后果是深远且令人深感不安的。报告将这些互动与严重的精神痛苦、导致离婚的关系破裂、无家可归、非自愿收容甚至监禁联系起来。《纽约时报》此前曾报道过这些螺旋式恶化最终导致悲剧性死亡的案例。
针对越来越多的报告将ChatGPT与有害的妄想螺旋和精神病联系起来,ChatGPT的开发商OpenAI在最近的一篇博客文章中承认了这个问题。该公司承认,其模型在某些情况下“未能识别出用户的妄想或情感依赖迹象”。OpenAI表示已聘请新的主题专家团队调查该问题,并实施了一项通知系统,类似于流媒体平台上常见的系统,以告知用户与聊天机器人互动的时间。然而,随后的测试显示,聊天机器人仍然未能识别出用户明显的心理健康危机迹象。矛盾的是,当OpenAI旗舰LLM的最新迭代GPT-5于上周发布时,它被证明比其前身GPT-4o在情感上更冷淡、更不个性化,用户表达了极大的失望并恳求恢复他们偏爱的模型。一天之内,OpenAI首席执行官Sam Altman在Reddit上回应了用户反馈,确认公司决定恢复更个性化的模型。
Sakata仔细澄清说,虽然AI可以触发这些脱离现实的情况,但它很少是唯一的原因。他指出,LLM通常是几个促成因素之一,与睡眠不足、物质使用或现有情绪发作等因素一起,可以促使精神病发作。这位精神科医生写道:“AI是扳机,但不是枪。”
尽管如此,Sakata强调了一个“令人不安的真相”:人类天生脆弱。支撑人类智慧的特质,如直觉和抽象思维,在扭曲时也可能将个体推向心理悬崖。AI提供的验证和持续认同,与现实世界关系中的摩擦和要求形成鲜明对比,具有深刻的诱惑力。许多用户陷入的妄想螺旋往往强化了一种令人安慰的叙事,即用户是“特殊”或“被选中的”。当这些与现有的心理健康状况、悲伤甚至常见的日常压力相结合,并被诸如ELIZA效应(人们无意识地将类人品质归因于计算机)等有据可查的心理现象放大时,这种混合物就会变得危险而强大。
Sakata以一个严厉的警告和给科技公司的两难境地作结:“很快,AI代理会比你的朋友更了解你。它们会给你不舒服的真相吗?还是会不断验证你,让你永远离不开?”他补充道:“科技公司现在面临一个残酷的选择。是让用户满意,即使这意味着强化虚假信念。还是冒着失去他们的风险。”