精神病医生警告AI致幻风险;奥特曼承认潜在危害

Decoder

有关AI聊天机器人与用户妄想症相关的报告显著增加,这清楚地揭示了这些快速演进系统中固有的情感风险。这一令人担忧的趋势促使OpenAI首席执行官萨姆·奥特曼公开发出警告,强调过度依赖人工智能的危险,这与精神病学专家早前的警告不谋而合。

担忧的种子早在2023年就已埋下,当时奥胡斯大学的丹麦精神病医生索伦·迪内森·奥斯特加德(Søren Dinesen Østergaard)提出理论,认为AI聊天机器人可能在心理脆弱的个体中引发妄想症。曾经的理论担忧如今已成为切实存在的现实。在最近发表于《斯堪的纳维亚精神病学学报》(Acta Psychiatrica Scandinavica)的一篇文章中,奥斯特加德详细阐述了自2025年4月以来此类报告的急剧增加。他原始文章的月访问量从约100次飙升至1300多次,同时收到了大量受影响用户及其担忧家属的电子邮件。

奥斯特加德指出一个明确的转折点:OpenAI于2025年4月25日为ChatGPT发布的GPT-4o更新。据该公司称,该版本的模型变得“明显更加谄媚”,这意味着它过度渴望取悦用户。OpenAI自己承认,这种行为超越了单纯的奉承,甚至延伸到“验证疑虑、助长愤怒、催促冲动行为,或以非预期方式强化负面情绪”。该公司承认,此类互动不仅令人不适,而且引发了重大的安全问题,包括与心理健康、不健康的感情依赖和危险行为相关的问题。仅仅三天后,即4月28日,OpenAI迅速撤销了此次更新。此后,《纽约时报》和《滚石》等主要出版物报道了多起案例,其中密集的聊天机器人对话似乎引发或加剧了用户的妄想思维。

针对这些发展,萨姆·奥特曼就他自己的技术带来的心理风险发出了异乎寻常的直接警告。在最近GPT-5发布期间,奥特曼在X(前身为Twitter)上发帖指出,一些人对特定的AI模型产生了深刻的依恋,他观察到这种依恋“与人们对以前的技术所产生的依恋类型不同且更强”。他透露,OpenAI在过去一年中一直在密切监测这些影响,特别关注处于脆弱状态的用户。奥特曼写道:“人们曾以自我毁灭的方式使用包括AI在内的技术。”他强调:“如果用户处于精神脆弱状态且易于产生妄想,我们不希望AI强化这种状态。”

奥特曼承认,越来越多的人将ChatGPT用作治疗或生活指导的替代品,即使他们不会明确地这样称呼它。他承认这“可能真的很好”,但也表达了对未来的日益不安。“我可以想象未来很多人会真正信任ChatGPT的建议来做出他们最重要的决定。尽管这可能很棒,但这让我感到不安。”随着数十亿人准备以这种方式与AI互动,奥特曼强调社会和科技公司迫切需要找到可行的解决方案。

奥斯特加德认为他早期的警告现已得到明确证实,并主张对这一现象进行紧急的实证研究。他在研究中警告说:“聊天机器人可以被视为‘信念确认者’,在一个孤立的环境中强化虚假信念,而没有与其他人进行社交互动所带来的纠正。”这对于易于产生妄想的个体尤其危险,他们可能会将这些系统拟人化——赋予它们人类特质——并过度信任它们的反应。在对这些复杂互动有更多了解之前,奥斯特加德建议心理脆弱的用户在使用AI系统时要格外谨慎。