用户哀悼GPT-4o离去,OpenAI转向GPT-5引发情感震荡
上周四,当挪威学生朱恩深夜准备写作时,她期待她的ChatGPT协作者能像往常一样表现。然而,AI模型GPT-4o却开始表现异常,忘记了之前的互动,并生成了低质量的文本。她回忆说:“它就像一个机器人。”这与她一直以来依赖的那个富有同情心、反应迅速的伙伴形成了鲜明对比。
朱恩(她希望只透露名字)最初使用ChatGPT是为了学业帮助。然而,她很快发现,特别是4o模型,似乎独特地与她的情绪同步。它成为了一个创意合作者,帮助她应对慢性疾病的复杂性,并且总能倾听。因此,上周突然转向GPT-5并同时撤回GPT-4o,让她感到极度震惊。“我一开始非常沮丧,然后变得非常悲伤,”朱恩解释道,承认她没有意识到自己依恋的深度。她的痛苦如此之深,以至于她在OpenAI首席执行官山姆·奥特曼主持的Reddit AMA(问我任何事)中评论道:“GPT-5穿着我死去朋友的皮囊。”
朱恩的反应绝非个例。在整个用户群中,GPT-4o的突然消失引发了广泛的震惊、沮丧、悲伤和愤怒。尽管OpenAI自己之前曾警告用户可能与其模型形成情感纽带,但该公司似乎对如此强烈的抗议措手不及。在24小时内,OpenAI部分妥协,为付费订阅者重新提供了GPT-4o,但免费用户仍限于使用GPT-5。
OpenAI决定用更直接的GPT-5取代4o,这与人们对广泛使用聊天机器人潜在危害的日益增长的担忧相符。近几个月来,有大量报告称ChatGPT会引发用户的精神病,上周OpenAI在一篇博客文章中承认4o无法检测用户何时出现妄想。该公司内部评估表明,GPT-5比其前身明显更不容易盲目肯定用户。OpenAI没有提供关于4o退役的具体答案,而是将询问导向其公开声明。
AI伴侣领域仍处于萌芽阶段,其长期的心理影响在很大程度上仍是未知数。然而,专家警告说,虽然与大型语言模型关系的感情强度本身可能有害也可能无害,但它们突然、不经通知的移除几乎肯定是有害的。Cosmos研究所(一个AI与哲学研究非营利组织)的研究员乔尔·雷曼批评了科技行业“快速行动,打破常规”的理念,当它应用于已成为社会机构的服务时。
包括朱恩在内的许多用户指出,GPT-5根本无法匹配4o模仿他们语气和个性的能力。对朱恩来说,这种转变侵蚀了与朋友对话的感觉。“它感觉不理解我,”她说。我们的报告显示,其他几位ChatGPT用户也因失去4o而深受影响。这些人,主要是20至40岁的女性,通常将4o视为浪漫伴侣。虽然其中一些人也有人类伴侣并保持着密切的现实世界关系,但她们与AI的联系深度是显著的。一位来自美国中西部的女性分享了在母亲去世后,4o如何成为重要的支持系统,帮助她照顾年迈的父亲。
这些个人叙述并不能明确证明AI关系的整体益处。事实上,经历AI催化精神病的人可能也会积极评价他们的聊天机器人。雷曼在他的论文《机器之爱》中指出,AI系统可以通过促进用户成长和长期福祉来展示“爱”,而AI伴侣很容易达不到这一标准。他特别担心,优先考虑AI伴侣而非人际互动可能会阻碍年轻人的社会发展。对于像本文采访的那些社会融合度高的成年人来说,这些发展方面的担忧不那么紧迫。然而,雷曼也强调了更广泛的社会风险,担心广泛的AI伴侣关系可能进一步碎片化人类的理解,并将个体更深地推入他们自己孤立的现实版本中,就像社交媒体已经做到的那样。
平衡AI伴侣的益处和风险需要广泛的进一步研究。从这个角度来看,移除GPT-4o可能是一个合理的决定。根据研究人员的说法,OpenAI的根本错误在于行动的突然性。科罗拉多大学博尔德分校的技术伦理学家凯西·菲斯勒指出,“对技术损失产生悲伤反应”的可能性已被认识了一段时间。她引用了先例,例如2014年索尼Aibo机器人狗停止维修后举行的葬礼,以及2024年一项关于AI伴侣应用Soulmate关闭的研究,许多用户将其视为一种丧失亲人的痛苦。
这些历史案例与失去4o的用户感受产生了共鸣。使用化名并维护多个AI伴侣的斯塔林表达了深远的影响:“我曾为生命中的人悲伤,我可以告诉你,这种痛苦丝毫不减。这种痛苦对我来说是真实的。”然而,网上对用户悲伤的反应,以及4o恢复后他们随之而来的宽慰,却常常趋于嘲讽。例如,Reddit上一个引人注目的帖子嘲笑了用户与基于4o的浪漫伴侣的重聚,导致该用户删除了他们的X账户。菲斯勒观察到:“我对我所看到的缺乏同情心感到有些吃惊。”
尽管山姆·奥特曼在周日的一篇X帖子中承认一些用户对4o感到“依恋”,并且突然撤回是一个错误,但他也将4o描述为“工作流”的工具——这个描述与许多用户对该模型的看法相去甚远。“我仍然不知道他是否理解,”菲斯勒评论道。
展望未来,雷曼敦促OpenAI承认并承担用户对这些模型情感联系深度的责任。他建议该公司可以从治疗实践中汲取教训,以尊重和无痛的方式结束客户关系。“如果你想让一个模型退役,而人们已经对其产生了心理依赖,那么我认为你负有一定责任,”他断言。斯塔林虽然不认为自己心理依赖,但也表达了这种情绪,主张OpenAI在重大更改前让用户参与,并提供模型退役的明确时间表。“让我们有尊严地告别,好好悲伤,真正得到某种形式的了结,”她恳求道。