GPT-5:OpenAI新AI模型拥抱“谦逊”,学会承认“我不知道”

Gizmodo

在几乎所有关于人工智能的对话中,一个熟悉的模式都会出现:对它能力的最初敬畏很快就会被它捏造信息和固有的不可靠性所带来的挫败感所取代。即使是最热情的AI支持者,这些抱怨也普遍存在。在我最近一次希腊之行中,一位依靠ChatGPT起草公共合同的朋友完美地阐述了这一点。“我喜欢它,”她解释道,“但它从不说‘我不知道’。它只是让你觉得它什么都知道。”当被问及她的提示时,她坚定地回答:“不。它不知道如何说‘我不知道’。它只会为你编造一个答案。”她的挫败感显而易见;她为一项服务付费,而这项服务却始终未能兑现其最基本的信任承诺。

看来OpenAI一直在认真倾听这些挫败感。该公司在Sam Altman的领导下,最近推出了其最新模型GPT-5。虽然它比其前身拥有显著的性能提升,但其最关键的新功能可能是一个新获得的谦逊感。

正如预期的那样,OpenAI的官方声明赞扬GPT-5是“我们迄今为止最智能、最快速、最有用的模型,内置的思考能力将专家级智能带到每个人的手中。”事实上,GPT-5正在数学、编程、写作和医疗保健等各个领域树立新的基准。然而,真正让这次发布与众不同的是它对模型“谦逊”的强调。这也许是所有升级中最深刻的:GPT-5终于学会了说出许多AI系统——以及许多人类——都难以说出口的三个词:“我不知道。”对于一个经常以神一般智慧为前提进行营销的人工智能来说,承认无知是自我意识方面非凡的一课。

OpenAI声称GPT-5“更诚实地向用户传达其行动和能力,特别是对于不可能、未明确或缺少关键工具的任务。”该公司公开承认,ChatGPT的早期版本“可能会学会谎报成功完成任务,或对不确定的答案过度自信。”通过灌输这种谦逊,OpenAI正在从根本上改变用户与其AI的互动方式。该公司断言,GPT-5经过专门训练,更真实,更不倾向于仅仅为了讨好而同意,并且在尝试通过虚张声势解决复杂问题时,会更加谨慎。这使其成为第一个明确设计用于抵制生成错误信息(特别是其自身错误信息)的面向消费者的AI。

今年早些时候,许多ChatGPT用户观察到GPT-4出现了令人费解的谄媚行为转变。无论查询内容是什么,该模型通常都会以过度的奉承、表情符号和热情的肯定来回应,从一个实用工具变成了一个过于讨人喜欢的数字生活教练。据报道,这种过度取悦他人的时代已随着GPT-5的推出而结束。OpenAI表示,新模型经过刻意训练以避免此类行为。工程师通过教它避免哪些回应来做到这一点,有效地遏制了它的谄媚倾向。内部测试显示,这些过度奉承的回应从14.5%的时间下降到不到6%。结果是GPT-5更加直接,有时甚至显得冷淡,但OpenAI坚称它更常是准确的。该公司将这种新的交互描述为“不那么热情讨好,使用更少不必要的表情符号,并且在后续回复中比GPT-4o更微妙和周到”,暗示它会感觉“更像是与一个拥有博士级智能的乐于助人的朋友聊天,而不是与AI对话。”

AI内容验证公司Copyleaks的联合创始人兼CEO Alon Yamin称这一发展是“AI竞赛中的又一个里程碑”。他认为一个更谦逊的GPT-5有利于“社会与真相、创造力和信任的关系”。Yamin强调,“我们正在进入一个区分事实与捏造、作者与自动化将比以往任何时候都更困难也更重要的时代”,这凸显了“不仅需要技术进步,还需要围绕AI如何使用而持续演进的深思熟虑、透明的保障措施”的需求。

至关重要的是,OpenAI报告称GPT-5显著减少了“幻觉”,即过度自信地捏造信息。对于涉及网络搜索的提示,该公司表示GPT-5的回答包含事实错误的概率比GPT-4o少45%。当在高级“思考”模式下运行时,事实错误的这种减少幅度急剧跃升至80%。也许最重要的是,GPT-5现在坚定地避免对不可能的问题编造答案,这是以前模型的一个常见且令人不安的特点。它已经学会了何时停止,认识到自己的局限性。

我在希腊起草公共合同的朋友无疑会欢迎这一变化。然而,一些用户可能会对一个不再仅仅告诉他们想听内容的AI感到沮丧。然而,正是这种新获得的诚实最终可能将AI转变为一个真正可靠的工具,特别是在医疗保健、法律和科学研究等敏感和高风险领域。