OpenAI 发布 Apache 许可的 GPT-OSS 模型,挑战竞争对手
OpenAI 自 GPT-2 以来首次推出了其开放权重语言模型,标志着旨在加速企业采用其 AI 技术的关键战略转变。gpt-oss-120b 和 gpt-oss-20b 在宽松的 Apache 2.0 许可下发布,预示着 OpenAI 的一个新时代,强调灵活部署、降低运营成本以及提高企业可访问性。
这些新模型代表了 OpenAI 在平衡可访问性与专有优势方面的深思熟虑。虽然模型权重对组织开放,可在本地运行和自定义,但 OpenAI 保留了对原始训练数据和路由机制的控制。这种“半开源”方法旨在吸引开发者和企业,同时不完全放弃核心知识产权。
gpt-oss-120b 和 gpt-oss-20b 模型专为效率和性能而设计,即使在消费级硬件上也能表现出色。据报道,较大的 gpt-oss-120b 在推理基准测试中达到了与 OpenAI 的 o4-mini 几乎持平的水平,而仅需一块 80GB GPU。更紧凑的 gpt-oss-20b 则与 o3-mini 的性能匹配,并可在内存低至 16GB 的边缘设备上运行,使先进的 AI 能力更加普及。两种模型都支持长达 128,000 个 token 的上下文窗口,并以 MXFP4 格式进行原生量化,以实现优化部署。
其效率的关键在于专家混合(MoE)架构,该架构通过仅激活给定输入的参数子集来优化计算需求。例如,gpt-oss-120b 从其总计 1170 亿个参数中激活 51 亿个,而 gpt-oss-20b 从其 210 亿个基础参数中激活 36 亿个。这种选择性激活显著降低了推理期间的计算成本,使得构建强大且资源高效的模型成为可能。
Apache 2.0 许可是此次发布的关键组成部分,它允许模型的无限制商业使用、修改和分发。这种宽松的许可还提供专利授权,为用户提供专利侵权索赔的保护,这在快速发展的 AI 领域中极具价值。Counterpoint Research 研究副总裁兼合伙人 Neil Shah 指出,这种许可方法有望加速 OpenAI 模型在研究和商业应用中的采用。
对于企业 IT 团队而言,这一战略转变意味着更可预测的资源需求,以及与传统专有模型部署相比,潜在的显著成本节约。虽然自托管需要初始基础设施投资和持续运营成本,但它消除了高用量下可能迅速累积的按 token 计费的 API 费用。行业专家认为,总拥有成本(TCO)将有利于高用量或任务关键型需求的企业,在这种情况下,自托管的节省最终将超过初始和运营开销。早期企业合作伙伴,包括 AI Sweden、Orange 和 Snowflake,已经开始测试实际应用,从增强数据安全性的本地托管到专业数据集上的微调。
此举还对 OpenAI 与其主要投资者和云合作伙伴微软的关系产生了重大影响。通过提供开放权重模型,OpenAI 巧妙地摆脱了对微软 Azure 的单一依赖,允许开发者在 AWS 或 Google 等竞争对手的云上,甚至 OpenAI-Oracle 云上托管这些模型。这种战略灵活性增强了企业与其他 AI 供应商和 AI 即服务模式的议价能力。尽管如此,微软仍通过 ONNX Runtime 将 gpt-oss-20b 的 GPU 优化版本集成到 Windows 设备中,通过 Foundry Local 和适用于 VS Code 的 AI 工具包支持本地推理。
OpenAI 声明,这些模型经过了全面的安全训练和评估,包括在其预备框架下测试了对抗性微调版本,其方法论经过外部专家审查。这解决了企业对开源 AI 安全和负责任部署的常见担忧。这些模型在基准测试中表现出竞争优势,gpt-oss-120b 在 AIME 2024 上取得了 79.8% 的 Pass@1 成绩,在 MATH-500 上取得了 97.3% 的成绩,同时具备强大的编码能力和工具使用能力,这对业务自动化至关重要。
这一转变承认了企业 AI 采用中对部署灵活性的日益增长的需求,特别是对于优先考虑数据主权和寻求避免供应商锁定的受监管行业的组织。虽然企业必须管理操作复杂性,但 OpenAI 正在与 Nvidia、AMD、Cerebras 和 Groq 等硬件提供商合作,以确保在不同系统上的优化性能。最终,Apache 2.0 许可消除了传统定制障碍,使组织能够开发专有 AI 应用程序而无需重复许可费用,这对于不断发展的 AI 领域中的企业而言是一项重大胜利。