OpenAI `gpt-oss` 模型赋能微软混合AI,贯通Azure与Windows

Visualstudiomagazine

OpenAI发布了全新的gpt-oss开放权重模型,标志着在普及先进人工智能方面迈出了重要一步,并预示着混合AI新时代的到来。微软正迅速将这些模型整合到其Azure AI Foundry和Windows AI Foundry平台中,赋予开发者前所未有的灵活性,能够将AI解决方案从广阔的云端运行、定制并部署到用户设备的边缘。

gpt-oss系列是OpenAI自GPT-2以来首次发布的开放权重模型,这一战略举措于2025年8月5日公布。与发布完整训练代码和数据的传统开源模型不同,开放权重模型在宽松的Apache 2.0许可下公开其训练参数。这种方法允许开发者检查、定制和微调模型,同时OpenAI保留对其基础知识产权的控制,从而在可访问性和专有优势之间取得平衡。

gpt-oss家族包含两个针对不同部署场景量身定制的模型:gpt-oss-120bgpt-oss-20b。较大的gpt-oss-120b拥有1170亿个总参数(每个token有51亿个活跃参数),在核心推理基准测试中,其性能与OpenAI的专有o4-mini模型几乎持平。至关重要的是,它经过优化,可在单个80 GB企业级GPU上高效运行,使其成为云环境中处理数学、代码和领域特定问答等复杂任务的强大工具。

对于边缘计算和本地推理,OpenAI提供了gpt-oss-20b,这是一个更轻量级的模型,拥有210亿个总参数(36亿个活跃参数)。该模型在常见基准测试中取得了与OpenAI的o3-mini相似的结果,并且可以在内存低至16 GB的消费级硬件上运行,使其成为设备端应用和无需昂贵基础设施即可快速本地迭代的理想选择。这两个模型都设计用于强大的推理能力,支持工具使用、少样本函数调用和思维链(CoT)推理,并提供可调节的推理工作量级别以平衡延迟和性能。它们是纯文本模型,具有高达128K的上下文窗口。

微软将这些模型整合到其AI Foundry生态系统中,凸显了一个战略愿景:AI不再仅仅是技术栈中的一个层,而是成为计算的基础。Azure AI Foundry是一个统一的、基于网络的平台,用于企业AI运营,使开发者能够在安全的企业级环境中大规模设计、定制和管理AI应用和代理。它提供了对大量模型(包括gpt-oss-120b)的访问,以及用于微调、构建生成式AI应用、定制Copilot和复杂代理的工具。

与云端能力相辅相成的是Windows AI Foundry,它是Windows Copilot Runtime的演进,旨在促进AI模型直接在个人电脑上开发和部署。该框架支持整个AI开发者生命周期,从模型选择和优化到跨各种硬件组件(包括Copilot+ PC中发现的CPU、GPU和NPU)的微调和部署。Windows AI Foundry中包含的“Foundry Local”为开发者提供了快速访问预优化、即用型开源模型(如gpt-oss-20b)的途径,以实现无缝的设备端AI体验。

这种云到边缘的混合方法为开发者提供了无与伦比的控制和灵活性。通过利用gpt-oss等开放权重模型,开发者可以完全透明地了解模型行为,从而进行深度定制、使用专有数据进行微调,并根据自己的条件进行部署。这转化为对延迟、成本和数据隐私的更大控制,促进了从安全、高性能的云部署到边缘设备上高效、实时代理任务(即使在带宽受限的环境中)等更广泛用例的创新。

gpt-oss的发布及其与微软AI Foundries的深度整合标志着AI领域的一个关键时刻。它加剧了与Meta、Mistral AI和中国的DeepSeek等其他开放权重模型提供商的竞争,同时扩大了先进AI的潜在市场。通过在云端和边缘提供可访问、可定制和高性能的模型,OpenAI和微软不仅在普及AI;他们正在重塑全球智能应用的构建、部署和体验方式。