GPT-5重磅发布:OpenAI剑指5000亿美元估值,并深化开放模型策略

Aiwire

过去一周对OpenAI而言是关键时刻,一系列重大公告接连发布,凸显了该公司积极追求通用人工智能(AGI)、其不断飙升的市场估值以及对开源计划的重新承诺。本周伊始,OpenAI发布了gpt-oss系列新的开放权重模型,随后迅速有报道称,该公司正与投资者洽谈潜在的股权出售,这可能使其估值达到惊人的5000亿美元。在这一系列重大事件的最后,OpenAI终于揭开了备受期待的旗舰模型GPT-5的面纱,标志着当前大型语言模型军备竞赛中的一次重大飞跃。

GPT-5是自2023年3月GPT-4首次亮相以来的首次重大更新,由首席执行官萨姆·奥特曼在一次直播发布会上介绍,他称其为“我们迈向AGI道路上的重要一步”。新模型现已面向ChatGPT免费用户、Plus用户和Team用户开放,企业版和教育版将于下周推出。开发者也将通过三个不同的API层级获得GPT-5的访问权限:GPT-5、GPT-5 Mini和GPT-5 Nano。GPT-5的一个关键架构变化涉及ChatGPT路由逻辑的重新设计。此前,系统会将常规查询导向速度更快的模型,将复杂任务导向速度较慢、更需要深思熟虑的推理变体。GPT-5取消了这种“分叉”。正如OpenAI首席研究官马克·陈所解释的,该模型现在采用内部控制器动态确定最佳的“思考”时长,旨在为更简单的请求提供精确答案,而无需不必要的延迟。

发布会上展示的基准测试结果显示了GPT-5令人印象深刻的能力。该模型在SWE-Bench(衡量其在Python编程项目中修复bug的能力)上取得了74.9%的分数,在Aider Polyglot编程测试中取得了88%的分数。它还在多模态MMMU视觉推理套件上创下新高,并在2025年AIME高中数学考试中以未公开的优势超越了GPT-4o。OpenAI员工承认,正式评估无法涵盖所有真实世界场景,但强调这些更高的分数与内部观察到的可靠性提升相符。GPT-5训练期间的一个重要重点是减少事实错误和欺骗行为。安全主管萨奇·德赛指出,该模型在内部测试中表现出更少的事实不准确性,并采用“安全完成”方法而非严格的“服从或拒绝”规则。在处理欺骗方面,德赛强调GPT-5比其前身“显著减少了欺骗性”,尤其是在模糊或未明确的任务中。对于潜在危险的请求,例如烟火制造说明,该模型现在提供部分指导,将用户引导至安全手册,并透明地解释任何拒绝,旨在提供有用的背景信息而不助长危害。

除了核心模型改进,OpenAI还在推出基于GPT-5构建的产品和API更新。这些更新包括为免费用户提供更自然的语音模式和实时视频上下文、增强的个性化选项以及可连接Gmail和Google日历等服务的记忆功能。新的学习模式提供分步学习。对于开发者,GPT-5引入了可接受纯文本的自定义工具调用、工具使用前的可选前导语、详细程度控制以及最小推理设置以优先考虑速度而非深度。该公司声称,GPT-5在多工具任务的Tau-Squared基准测试中达到了惊人的97%,而仅仅两个月前这一数字仅为49%。虽然已确认向各用户层级发布,但GPT-5的推出是渐进式的,以确保稳定性,这意味着部分用户可能会延迟获得使用权限。

在GPT-5发布的同时,有报道浮出水面,涉及OpenAI的财务轨迹。彭博社指出,该公司正在就员工股份的二次出售进行初步讨论,这可能使OpenAI的估值达到约5000亿美元。包括Thrive Capital在内的现有投资者据报道正在探索参与这些购买。如果最终敲定,这项交易将使其纸面估值从此前由软银牵头的一轮400亿美元融资中确立的3000亿美元大幅提升。报道还指出,OpenAI最近又获得了83亿美元,作为超额认购融资的第二批资金。这种二次出售将为员工提供关键的流动性,并有助于在Meta和Anthropic等竞争对手的激烈竞争中留住人才。此外,彭博社报道称,OpenAI和微软正在就其错综复杂的关系进行重新谈判,包括微软的股权和对OpenAI基础技术的访问权限,这发生在他们当前协议于2030年到期之前。这种伙伴关系被描述为竞争、战略协同和相互依赖的复杂互动。OpenAI独特的混合盈利模式,即一个非营利性母公司监督一个追求利润的运营公司,仍在不断演变,关于结构性变化的讨论持续进行,包括运营部门可能成为公共利益公司,同时保持非营利性监督。这场战略辩论的背景是用户快速增长,ChatGPT预计本周活跃用户将达到7亿,高于3月份的5亿。

在与公司创始名称相符的举措中,OpenAI还发布了gpt-oss,一个全新的开放权重模型系列。这些模型以200亿和1200亿参数版本在Hugging Face和GitHub上以Apache 2.0许可证提供,标志着向更广泛可访问性迈出了重要一步。OpenAI表示,gpt-oss模型“在推理任务上优于同等规模的开放模型,展现出强大的工具使用能力,并针对消费级硬件上的高效部署进行了优化。”它们是使用强化学习和受OpenAI最先进内部模型启发的技术相结合进行训练的。这两个新模型都采用了Transformer架构,并结合了专家混合(MoE)方法,以减少处理输入所需的活跃参数数量,从而提高效率。gpt-oss-120b模型需要80GB GPU,专为数据中心和高端桌面设计,在核心推理基准上与OpenAI的o4-mini几乎持平。较小的gpt-oss-20b仅需16GB内存,可在大多数消费级桌面和笔记本电脑上运行,适用于设备端用例和本地推理,提供与OpenAI的o3-mini相当的结果。gpt-oss的开放权重性质为研究人员提供了前所未有的灵活性,允许他们在自己的硬件上运行模型,进行可重复的实验,检查内部工作原理,根据特定领域数据微调模型,并与其他实验室比较结果,同时确保数据隐私和降低成本。这种透明性,包括暴露模型的完整思维链并调整推理深度的能力,旨在加速分子设计和气候建模等领域的可重复研究。OpenAI将gpt-oss的发布视为构建“健康的开放模型生态系统”的关键一步,通过为开发者提供更多研究和开发选项来补充其托管模型,最终旨在使AI“广泛可访问并造福所有人”。