OpenAI修复模型切换问题后,GPT-5变得更智能

Decoder

OpenAI正积极解决其最新大型语言模型GPT-5的初期部署挑战,旨在立即提升模型的容量、质量和用户界面。公司首席执行官萨姆·奥特曼(Sam Altman)最近在X上证实,一旦正在进行的推广完成,ChatGPT Plus订阅用户的GPT-5消息限制将翻倍。此举是提升用户体验的更广泛努力的一部分,同时允许Plus用户继续访问之前的GPT-4o模型,OpenAI将监控其使用情况以决定未来的可用性。

目前,ChatGPT Plus用户每三小时的消息上限为100条,如果达到此限制,系统会自动切换到较小的模型。专为更复杂任务设计的GPT-5-Thinking变体,每周有200条消息的独立上限,尽管在标准GPT-5和GPT-5-Thinking之间切换不计入此每周总数。奥特曼的声明表明,用户应该会立即感受到性能提升,预计GPT-5将“从今天起显得更智能”。他将早期的不一致性——导致模型偶尔显得“笨得多”——归因于核心自动模型切换器(负责为每个用户提示选择合适的GPT-5变体)的初始问题。

事实证明,面向所有用户的全面推广比OpenAI最初预期的更复杂、更耗时。奥特曼将其描述为“大规模的巨大变革”,强调API流量在过去24小时内大约翻了一番。尽管由于同时实施了多项更改,预计会出现一些运营摩擦,但奥特曼承认启动阶段比公司希望的“更加颠簸”。

除了立即修复,OpenAI还在完善其底层模型路由策略,该策略决定如何将提示分配给特定模型。目标是确保用户的请求与最适合处理它的模型之间有更可靠的匹配。奥特曼还表示未来计划增强透明度,让用户更清楚当前哪个模型处于活动状态。此外,用户最终可能会获得通过界面直接手动激活“Thinking”模式的能力,尽管这些功能的时间表尚未提供。

这些战略调整预示着OpenAI可能正在从早期完全自动化的模型路由重点转向。虽然自动化路由简化了不愿手动选择模型的新用户体验,但它可能会无意中导致响应不太可靠,或为给定任务部署不合适的模型,从而为大型语言模型本已复杂的输出增加了一层不可预测性。对于偏好更大控制权的用户,OpenAI通过ChatGPT的设置保留了启用“旧版”模型访问的选项,这些模型随后会出现在“其他模型”下。然而,更高级的GPT-5“Thinking”和“Pro”变体仍仅限Pro账户访问。