OpenAI、GPT-2以来初のオープンウェイトLLM「GPT-OSS」を発表
OpenAIは、GPT-2のリリース以来初となるオープンウェイト言語モデル「GPT-OSS」を発表しました。これは、モデルのアクセシビリティに関する戦略の大きな転換を示しています。これらの新しいモデルは、非常に寛容なApache 2.0ライセンスの下で利用可能であり、開発者に対し、制限的な条項なしに商業的および非商業的なアプリケーションで広範な自由を提供します。
GPT-OSSシリーズは、2つの異なるモデルでデビューします。1200億パラメータの推論モデルと、よりコンパクトな200億パラメータバージョンです。OpenAIは、大規模モデルが同社独自のo4-miniモデルに匹敵する性能を提供し、小規模モデルはo3-miniと同様の結果を達成すると述べています。
これらのモデルは、主に大量の英語テキストコーパスで訓練され、特にSTEM科目、コーディング、および一般知識に焦点を当てています。GPT-4oのようなOpenAIのより大規模で高度なモデルとは異なり、GPT-OSSは視覚能力を組み込んでいません。後訓練中、OpenAIはo4-miniモデルで使用されたものと同様の強化学習技術を適用し、GPT-OSSに思考の連鎖(chain-of-thought)推論能力を付与しました。ユーザーは、システムプロンプトを通じて、モデルの推論努力を低、中、高に調整できます。
両方のGPT-OSSモデルは、効率性を高める設計選択であるエキスパート混合(MoE)アーキテクチャを活用しています。1200億パラメータモデルでは、128の専門サブネットワーク、または「エキスパート」が利用可能で、そのうち4つ(合計51億パラメータ)が各出力トークンを積極的に生成します。200億パラメータバージョンは、32のエキスパートと36億のアクティブパラメータを持つ合理化された設計です。このMoE構造により、同等サイズの高密度モデルと比較してトークン生成が高速化されますが、これはハードウェアがそれらを収容できる場合に限ります。
ハードウェア要件に関して、OpenAIはこれらのモデルを効率的な運用向けに最適化しました。1200億パラメータモデルは単一の80GB H100 GPUで実行でき、200億パラメータバージョンはわずか16GBのVRAMに収まるように設計されています。RTX 6000 Ada GPUでのGPT-OSS-20Bモデルの予備テストでは、バッチサイズ1で毎秒125トークンを超えるトークン生成速度が実証されました。
これらのモデルは、128,000トークンのネイティブコンテキストウィンドウを備えています。1年前は競争力がありましたが、この容量は現在、アリババのQwen3ファミリー(256,000トークンのコンテキストウィンドウを提供)やMetaのLlama 4(最大1000万トークンをサポート)など、一部の競合他社に追い抜かれています。
GPT-OSSのリリースは、OpenAIのCEOであるサム・アルトマンが広範な安全性評価に起因するとした度重なる遅延を経て行われました。最近のブログ投稿で、OpenAIは、化学、生物、放射線、核(CBRN)研究開発に関連する有害データのフィルタリングを含む、実施された安全対策を詳細に説明しました。モデルはまた、安全でないプロンプトやプロンプトインジェクションの試みに抵抗するように設計されています。OpenAIは、敵対者が悪意のある目的のためにオープンウェイトモデルを微調整するリスクを認識していますが、その安全策に自信を表明しています。これらの対策をさらにテストするため、同社はレッドチームチャレンジを開始し、新しい安全性の脆弱性を特定できる人には50万ドルの賞金を提供しています。
GPT-OSSは現在、Hugging Faceを含むさまざまなモデルリポジトリで利用可能であり、Hugging Face Transformers、PyTorch、Triton、vLLM、Ollama、LM Studioなど、幅広い推論フレームワークをサポートしています。
今後について、サム・アルトマンはさらなる開発をほのめかし、Xで今週後半に「大幅なアップグレード」が予定されていると述べ、GPT-5リリースの可能性に関する憶測を煽っています。