OpenAI 的开源模型:一个简单的提示词技巧揭秘
OpenAI 再次凭借其全新的开源模型 gpt-oss-120b 和 gpt-oss-20b 的首次亮相,重塑了人工智能领域的格局,这是该公司自 2019 年 GPT-2 以来首次发布此类模型。这一重要举措于 2025 年 8 月 5 日宣布,不仅使高级 AI 功能的获取民主化,还引入了一个“极其简单的提示词技巧”,有望彻底改变开发人员与这些强大系统互动的方式。
这些模型在高度宽松的 Apache 2.0 许可证下可用,为开发人员和组织提供了无与伦比的灵活性,允许自由实验、定制和商业部署,而无需受限制的 copyleft 或专利问题。gpt-oss 系列包含两种不同的模型:更强大的 gpt-oss-120b,拥有 1170 亿参数(其中 51 亿活跃),以及更紧凑的 gpt-oss-20b,拥有 210 亿参数(其中 36 亿活跃)。这些模型专为复杂的推理和代理任务而设计,包括网页浏览、函数调用和 Python 代码执行,使其成为适用于广泛应用的通用工具。
真正让这些新模型脱颖而出的是其卓越的效率和性能。OpenAI 表示,gpt-oss-120b 在核心推理基准测试中达到了与其专有 o4-mini 模型几乎相同的水平,而 gpt-oss-20b 则提供了与 o3-mini 相当的性能。至关重要的是,大型模型可以在单个 80GB GPU 上高效运行,而较小版本则设计为在内存低至 16GB 的边缘设备上运行,包括标准 Mac 笔记本电脑。这种可访问性降低了小型组织、新兴市场和资源受限行业的进入门槛,促进了 AI 开发领域的更广泛创新。
更具吸引力的是,TechnologyAdvice 的 Grant Harvey 强调了这些 gpt-oss 模型中一个特别直观的功能:可配置的“推理努力”。通过简单地在提示中添加“Reasoning: high”,用户可以激活“深度思考模式”,促使模型进行更彻底、分步的问题解决过程。相反,“Reasoning: low”则优先考虑速度,适用于不太复杂的查询,而“Reasoning: medium”则作为平衡的默认设置。模型能够将输出分为“分析”(揭示原始思维链)和“最终”(提供完善的答案)通道,进一步增强了此功能,从而为 AI 的认知过程提供了前所未有的透明度。这不仅仅是一个“技巧”,而是一种内置的设计选择,它使开发人员能够根据特定需求微调模型的行为,根据需要权衡延迟以进行更深入的分析。
gpt-oss 模型的发布标志着 OpenAI 战略性地拥抱了开放权重范式,模糊了专有云服务和设备端 AI 之间的界限。这种方法确保了为 OpenAI 基于 API 的模型构建的任何内容都可以无缝过渡到这些新的本地模型,将它们直接集成到现有的开发人员生态系统中,并使高级 AI 更加普及。gpt-oss 模型可在 Hugging Face、AWS 和 Databricks 等主要平台上使用,有望催生新一波 AI 应用浪潮,通过可定制、高性能的语言模型突破可能的界限。