OpenAI 新开放模型现已登陆微软 Azure AI Foundry

Techrepublic

随着 OpenAI 最新发布的开放权重模型 gpt-oss-120b 和 gpt-oss-20b 现已在微软 Azure AI Foundry 上线,人工智能领域正经历一场重大变革。这种战略性整合赋予开发者前所未有的灵活性,以构建、测试和部署 AI 驱动的应用程序,标志着先进 AI 民主化的一个关键时刻。

OpenAI 的 gpt-oss 模型于 2025 年 8 月 5 日推出,是该公司自 GPT-2 以来首次开放权重发布。与之前的专有模型不同,这些模型采用宽松的 Apache 2.0 许可证,允许免费使用、修改和再分发,甚至可用于商业目的。此举被视为 OpenAI 扩大企业影响力、挑战 Meta 等在开源 AI 领域竞争对手的战略举措。

gpt-oss 系列包括两个主要模型:gpt-oss-120b,一个更大的模型,总参数为 1170 亿,每个 token 的活跃参数为 51 亿;以及 gpt-oss-20b,一个更紧凑的版本,总参数为 210 亿,活跃参数为 36 亿。这两个模型都利用了混合专家 (MoE) 架构和 4 位量化 (MXFP4),这显著提高了推理速度并减少了资源消耗。gpt-oss-120b 模型可以在单个企业级 GPU 上运行,而 gpt-oss-20b 则针对消费级硬件进行了优化,仅需 16GB 内存即可高效运行。这些模型在推理、编码和工具使用任务方面尤其强大,在核心基准测试中展示了可与 OpenAI 自己的专有模型(如 o4-mini)相媲美的能力。

微软的 Azure AI Foundry 是这些模型的关键平台,为整个 AI 开发生命周期提供统一环境,从初始探索到全面生产。Foundry 为开发者提供了一整套工具包,包括预构建模型、可定制模板和可扩展的基础设施。它与 GitHub 和 Visual Studio 等熟悉的开发环境集成,并拥有强大的安全和合规功能,使其成为企业极具吸引力的选择。开发者可以使用自己的专有数据对 gpt-oss 模型进行微调,为边缘设备进行优化,并在容器化环境中部署它们,从而加速从概念到部署的进程。这意味着定制的 AI 解决方案或“检查点”可以在数小时而非数周内交付。

gpt-oss 模型在 Azure AI Foundry 上的可用性,突显了行业向开放权重和开源 AI 模型发展的更广泛趋势。这一转变使 AI 访问民主化,降低了新兴市场和小型组织的门槛,并通过允许开发者在现有模型基础上进行定制和构建而无需受制于专有系统的限制,从而促进了创新。企业越来越倾向于采用开源 AI 解决方案,因为它们具有成本效益、灵活性和透明度。虽然微软保留了 OpenAI 专有 API 在 Azure 上的独家权利,但 gpt-oss 模型的 Apache 2.0 许可证允许其他云提供商(如 Amazon Web Services)也提供它们,从而加剧了云 AI 市场的竞争。

OpenAI 和微软之间的此次合作,特别是最新发布的 GPT-5 被整合到微软的产品中,进一步巩固了 Azure 作为尖端 AI 开发领先平台的地位。Azure AI Foundry 内对开放权重模型的关注,为开发者提供了更强的控制力、更低的延迟和更高的 AI 应用程序隐私性,尤其适用于设备端推理和代理任务。