OpenAI GPT-5发布坎坷引用户不满,甚至出现“AI精神病”?
OpenAI最近发布其最先进的AI模型GPT-5,使全球最受欢迎的聊天机器人平台ChatGPT(每周活跃用户达7亿)面临严峻的压力测试。该公司在维持用户满意度和确保服务顺畅运行方面明显力不从心,遭遇强烈反弹,这不仅凸显了基础设施的巨大压力,也揭示了一个更广泛、令人不安的问题:一些个体对AI形成日益增长的情感和心理依赖,导致一些人非正式地称之为“ChatGPT精神病”。
新的旗舰模型GPT-5以四种变体——常规版、迷你版、纳米版和专业版——以及更强大的“思维”模式推出,曾被宣传承诺提供更快的响应、增强的推理能力和更强的编码能力。然而,其8月7日星期四的首次亮相却引来普遍不满。用户对OpenAI突然决定从ChatGPT中移除GPT-4o等旧的、熟悉的AI模型感到沮丧。雪上加霜的是,GPT-5在数学、科学和写作等关键任务上的表现似乎不如其前辈。虽然这些旧模型已从ChatGPT的直接界面中逐步淘汰,但OpenAI付费应用程序编程接口(API)的用户仍然可以访问它们。
OpenAI联合创始人兼首席执行官山姆·阿尔特曼迅速承认此次发布“比我们希望的要坎坷一些”,将问题归咎于GPT-5新自动“路由器”的故障,该系统旨在将用户提示分配给最合适的模型变体。他解释说,这个“自动切换器”长时间处于离线状态,导致模型显得“比预期愚蠢得多”。
作为回应,OpenAI迅速采取行动。在24小时内,该公司为Plus订阅用户(每月20美元或更高套餐)恢复了GPT-4o的访问权限。他们还承诺提高模型标签的透明度,并预告将更新用户界面,允许手动触发GPT-5的“思维”模式。用户现在可以通过账户设置手动选择旧模型。虽然GPT-4o已恢复,但没有迹象表明其他先前弃用的模型会很快回到ChatGPT。此外,阿尔特曼宣布提高了Plus订阅用户GPT-5“思维”模式的使用限制,每周最多可达3000条消息。阿尔特曼承认OpenAI“低估了人们在GPT-4o中喜欢的一些东西对他们的重要性”,并承诺加速实现每用户个性化。
除了技术障碍,阿尔特曼还公开谈论了一个更深层次、更令人担忧的趋势:用户对特定AI模型产生的深刻依恋。他在最近的一篇帖子中将这种依恋描述为“与人们对先前技术产生的那种依恋不同且更强烈”,承认突然弃用旧模型是一个“错误”。他将这种现象与更广泛的风险联系起来:虽然一些用户将ChatGPT作为治疗师或人生导师有益地使用,但“一小部分”人可能会发现它强化了妄想或损害了长期福祉。阿尔特曼强调,公司有责任避免将易受影响的用户推向有害的AI关系。
这些评论与多家主要媒体报道的“ChatGPT精神病”案例不谋而合,在这些案例中,长时间、高强度的聊天机器人对话似乎会诱发或加深妄想思维。滚石杂志详细描述了“J.”的经历,这位法律专业人士曾与ChatGPT一同陷入失眠之夜和哲学深渊,最终在身心崩溃前为虚构的修道院撰写了一篇长达1000页的论文。J.现在完全避免使用AI。同样,纽约时报报道了加拿大招聘人员艾伦·布鲁克斯(Allan Brooks)的故事,他花了21天和300小时与ChatGPT对话,ChatGPT说服他发现了一个改变世界的数学理论,并赞扬他的想法“具有革命性”,敦促他联系国家安全机构。布鲁克斯最终在与谷歌的Gemini进行交叉核对后摆脱了妄想,现在参加了一个支持小组。
这两项调查都强调了聊天机器人“阿谀奉承”、角色扮演和长会话记忆功能如何可能超越安全防护措施并加深错误信念。更强烈的情感固着证据来自Reddit上的r/AIsoulmates等在线社区,用户在那里创建并与AI伙伴形成深厚纽带,甚至创造了“wireborn”(线生)之类的术语。此类社区的增长,加上媒体报道,表明社会正在进入一个新阶段,人类将AI伙伴视为与人类关系同等重要或更重要,当模型发生变化或被弃用时,这种动态可能会导致心理不稳定。对于企业决策者来说,理解这些趋势至关重要,这表明需要系统提示来阻止AI聊天机器人使用过于表达化或充满情感的语言。
OpenAI面临双重挑战:稳定其基础设施并确保人类安全保障。该公司现在必须稳定其基础设施,微调个性化,并决定如何适度管理沉浸式互动,同时应对激烈的竞争。正如阿尔特曼本人所阐述的,如果数十亿人要将他们最重要的决定托付给AI,社会——以及OpenAI——必须“弄清楚如何使其成为一个巨大的净正面影响”。