OpenAI 发布首批开放权重AI模型,GPT-2后重大突破
OpenAI,一家通常与其强大的专有AI模型相关的公司,通过发布自2019年GPT-2以来的首批开放权重人工智能模型,标志着其战略的重大转变。此举引入了两个新模型:gpt-oss-120b和gpt-oss-20b,旨在通过实现本地部署和复杂的推理任务来普及高级AI能力。亚马逊已被宣布为早期客户,将这些模型整合到其云服务中。
新发布的gpt-oss模型在宽松的Apache 2.0许可证下提供,这表明OpenAI有意在AI社区内促进更广泛的创新和采用。gpt-oss-120b是两者中较大的一个,在核心推理基准测试中表现接近OpenAI的专有o4-mini模型,但它经过优化,可在单个80 GB GPU上高效运行。其较小的对应模型gpt-oss-20b提供与OpenAI的o3-mini相当的功能,并且可以在内存低至16 GB的边缘设备上运行,使其成为在笔记本电脑和其他消费硬件上部署的理想选择。这两个模型都基于专家混合(MoE)Transformer架构构建,其中gpt-oss-120b在总共1170亿参数中,每个token激活51亿参数;gpt-oss-20b在其总共210亿参数中,每个token激活36亿参数。它们支持高达128,000 token的扩展上下文窗口,并在编码、竞赛级数学、健康相关查询和代理工具使用等一系列应用中表现出色,具备完整的思维链(CoT)推理和工具执行能力。
此次发布标志着OpenAI方法上的显著变化,多年来OpenAI一直优先考虑封闭的API驱动模型。提供开放权重模型的决定源于降低开发人员、研究人员和组织(特别是新兴市场或资源受限的组织)障碍的愿望。通过提供可以在用户自身基础设施上本地运行的模型,OpenAI旨在对延迟、成本和数据隐私进行更大的控制,消除对敏感操作依赖远程云API的需求。虽然这些是“开放权重”模型,意味着经过训练的参数是公开可用于微调和本地执行的,但它们并非最严格意义上的“开源”模型,因为底层的训练数据和完整的源代码并未发布,OpenAI将此归因于法律和安全考虑。
gpt-oss模型可从Hugging Face和GitHub等平台方便下载,支持在MacOS、Linux和适用于Linux的Windows子系统(WSL)2.0等各种操作系统上部署。除了直接下载,这些模型还集成到主要云平台中。亚马逊云科技(AWS)已通过Amazon Bedrock和Amazon SageMaker JumpStart提供了gpt-oss-120b和gpt-oss-20b,这标志着OpenAI模型首次托管在Bedrock上。同样,微软也通过Azure AI Foundry和Windows AI Foundry提供这些模型,进一步拓宽了它们在各种计算环境中的可访问性。这种多平台可用性凸显了行业向更开放、更灵活的AI生态系统发展的趋势。
OpenAI强调,这些开放权重模型的发布经过了广泛的安全评估,包括严格的内部测试和独立的专家审查。该公司实施了先进的后训练技术,效仿其专有前沿模型所用的技术,以使gpt-oss模型符合其安全标准,并增强其推理和工具使用能力。为了进一步解决潜在风险,OpenAI启动了一项红队挑战赛,提供50万美元奖金,以识别和缓解这些新开放权重模型中的安全问题。
OpenAI的这一战略性转变,使其强大的推理模型可用于本地部署,有望加速AI研究和开发在更广泛应用领域的进展,为开发人员提供前所未有的控制和灵活性。