OpenAI重磅推出开放权重LLM:GPT-OSS-120B(笔记本)与GPT-OSS-20B(手机)

2025-08-05T23:53:39.000ZMarktechpost

OpenAI已宣布发布两款全新的开放权重语言模型:gpt-oss-120B和gpt-oss-20B,这标志着该公司在AI分发方式上的一项重大转变。此举允许任何人下载、检查、微调并在自己的硬件上运行这些模型,为研究人员、开发人员和爱好者开启了一个透明度、定制化和计算能力的新时代。

OpenAI的新方向

历史上,OpenAI以开发功能强大的AI模型而闻名,但其底层技术大多是专有的。此次在宽松的Apache 2.0许可下发布gpt-oss-120B和gpt-oss-20B,预示着一个显著的变化。这种开源方法使用户能够将OpenAI级别的模型部署到本地,从企业环境到个人设备,而不再仅仅依赖云API。

模型介绍:能力与可访问性

gpt-oss-120B: 这款大型模型拥有1170亿参数,采用专家混合(MoE)架构,每个token约激活51亿参数,以提高效率。据报道,其在实际基准测试中的性能与OpenAI的o4-mini相当,甚至超越。该模型旨在单张高端GPU上运行,例如Nvidia H100或80GB级别的显卡,无需庞大的服务器群。

其关键功能包括思维链和智能体推理,使其适用于研究自动化、技术写作和代码生成等任务。用户可以配置其“推理工作量”(低、中、高)以平衡性能和资源消耗。此外,gpt-oss-120B拥有高达128,000 token的超大上下文窗口,使其能够处理大量文本,相当于整本书。它还易于微调和本地推理,提供完整的数据隐私和部署控制,且无速率限制。

gpt-oss-20B: gpt-oss-20B拥有210亿参数(每个token激活36亿参数,同样利用MoE),作为一款较小的模型,其性能强劲,在推理任务中介于o3-mini和o4-mini之间。其突出特点是能够在消费级硬件上运行,包括仅有16GB RAM的笔记本电脑,使其成为能够运行在手机或本地PC上最强大的开放权重推理模型之一。

该模型专为低延迟、私密的设备端AI优化,支持智能手机(包括高通骁龙)、边缘设备以及需要本地推理而无需依赖云的场景。与大型模型类似,gpt-oss-20B具备智能体能力,允许它使用API、生成结构化输出并按需执行Python代码。

技术基础:效率与便携性

两款gpt-oss模型均利用**专家混合(MoE)**架构。这种设计在处理每个token时仅激活少数几个“专家”子网络,使模型能够拥有庞大的总参数量,同时保持适度的内存使用和快速的推理速度。这使得它们在现代消费和企业硬件上效率极高。

此外,这些模型还集成了原生MXFP4量化技术,该技术可在不影响准确性的前提下显著减少内存占用。这项优化对于gpt-oss-120B能够适应单张高级GPU,以及gpt-oss-20B能够轻松在笔记本电脑、台式机甚至移动设备上运行至关重要。

实际影响与应用

这些开放权重模型的发布对各个行业都具有广泛的影响:

  • 对于企业: 在本地部署模型可确保增强数据隐私、安全性和合规性,特别是对于金融、医疗保健和法律等敏感行业。这消除了对黑盒云AI的依赖,使组织能够完全控制其LLM工作流程。
  • 对于开发人员: 它提供了无与伦比的自由度来实验、微调和扩展AI功能。开发人员可以在没有API限制或经常性SaaS费用的情况下进行操作,完全控制延迟和成本。
  • 对于社区: 这些模型已在Hugging Face和Ollama等平台上提供,方便快速下载和部署,加速社区驱动的创新。

为开放权重模型树立新基准

gpt-oss-120B脱颖而出,成为首个性能可与OpenAI的o4-mini等顶级商业模型相媲美的免费开放权重模型。gpt-oss-20B变体有望弥合设备端AI的性能差距,突破本地大型语言模型的可能性边界,并促进该领域的重大创新。

OpenAI发布GPT-OSS系列,标志着其致力于开放先进AI能力的承诺。通过使最先进的推理、工具使用和智能体功能可供检查和部署,OpenAI邀请更广泛的创作者、研究人员和企业社区不仅使用这些模型,而且积极地在其基础上进行构建、迭代和发展。

OpenAI重磅推出开放权重LLM:GPT-OSS-120B(笔记本)与GPT-OSS-20B(手机) - OmegaNext AI 新闻