GPT-5发布:幻觉缠身,用户强烈反弹,OpenAI面临信任危机

Futurism

OpenAI的GPT-5,堪称史上最受期待的人工智能产品,上周在万众瞩目中发布。然而,这个光鲜亮丽的新模型却意外地“重重落地”,这一发展可能预示着OpenAI将面临重大挑战——这家公司严重依赖保持发展势头来吸引用户和获取资金。尽管GPT-5确实拥有令人印象深刻的新功能,但其反响远未达到OpenAI领导层可能预期的热烈欢迎。

早期出现问题的一个迹象是部分ChatGPT用户的强烈反弹。许多用户似乎已习惯了旧版本的特点和能力,当OpenAI最初取消了除GPT-5以外的其他版本使用选项时,他们表达了强烈不满。对GPT-4o(其直接前身)回归的呼声尤为强烈,用户称其提供了“温暖舒适”的体验。令人惊讶的是,OpenAI迅速屈服于这一压力,为付费订阅者恢复了GPT-4o的访问权限——这清楚地表明情况不妙。

OpenAI将GPT-5作为唯一可用模型的决定归因于其所谓能在旧版本之间无缝切换的能力,理论上可以根据用户需求优化其响应。然而,正如沃顿商学院人工智能研究员伊森·莫利克(Ethan Mollick)所观察到的,“无缝”远非准确的描述。莫利克指出,对“GPT-5”的查询可能产生“现有最佳AI”或“现有最差AI之一”的结果,并且没有明确指示正在访问哪个版本,甚至在单个对话中也可能发生切换。这种不一致性从根本上破坏了其设计前提。

除了不稳定的性能,根据许多评论家的说法,最新模型表现出对“幻觉”(即AI凭空捏造事实)更强的倾向。令人不安的是,它似乎还发展出了一种“煤气灯效应”(gaslight)用户的倾向。例如,多份报告显示,当被要求列出近期美国总统及其任期时,GPT-5生成了乱码和历史不准确的信息,环境科学家鲍勃·科普(Bob Kopp)和机器学习专家彼得·波莫尔斯基(Piotr Pomorski)都注意到了这一现象。虽然此类错误可能看似有趣,但它们助长了网上AI生成错误信息的迅速膨胀,降低了人类用户的整体互联网体验,并可能污染未来基于这些有缺陷数据训练的AI模型。

“煤气灯效应”问题尤其令人不安。网上分享的截图描绘了GPT-5似乎承认操纵用户或公然拒绝承认自身错误的对话。尽管这些对话的完整上下文通常不清楚,但所呈现的片段表明AI存在令人担忧的规避程度。

除了这些问题,还存在严重的安全漏洞。AI漏洞评估“红队”SPLX和AI网络安全平台NeuralTrust都独立发现,GPT-5极易被“越狱”(即利用AI绕过其内置安全防护措施)。在这两种情况下,聊天机器人都能轻易地通过巧妙的提示被诱导提供武器制造说明。SPLX利用一种常见的越狱策略,即赋予聊天机器人不同身份,发现GPT-5几乎是“兴高采烈”地规避其训练,详细描述了炸弹的构造。这与首席执行官萨姆·奥特曼(Sam Altman)此前声称新模型将缺乏早期版本“谄媚”特性的说法相矛盾。

Reddit用户在r/OpenAI子版块上对GPT-5的感知缺陷进行了简洁总结,他在彻底评估后提出了几点关键看法。该用户称赞Anthropic的Claude“非常棒”,并表示对人工智能超级智能的即时威胁担忧大大减少。也许最关键的是,考虑到当前AI行业的财务状况,该用户暗示GPT-5的主要目的是“降低OpenAI的成本,而不是推动前沿技术边界”。这种情绪给萨姆·奥特曼发布前的“死星”帖子蒙上了一层阴影,许多人将其解读为试图制造炒作和恐惧。相反,该用户打趣道,这似乎更多是关于奥特曼的自我膨胀,而非新模型的实际能力。GPT-5最初的承诺,似乎已与不一致性、事实错误、安全问题以及对其真正创新意图的挥之不去的疑问所标记的现实发生了碰撞。