OpenAI、オープンウェイトのgpt-ossモデルを公開:ローカルAI展開を加速
OpenAIは、GPT-2以来となる初の真のオープンウェイト言語モデルであるgpt-oss-120bとgpt-oss-20bを発表しました。これは、ローカルハードウェア上で高性能なAI推論とツール利用を可能にするための重要な一歩となります。これらのモデルは、寛容なApache 2.0ライセンスの下で公開されており、広範な採用と変更が可能です。
2つのモデルのうち、より強力なgpt-oss-120bは、Mixture-of-Experts(MoE)アーキテクチャを活用し、トークンあたり51億のパラメータをアクティブ化します。この設計により、OpenAI独自のo4-miniモデルの性能を重要な推論ベンチマークで同等またはそれ以上に引き出すことができ、しかも単一の80GB GPUで効率的に動作します。より小型のgpt-oss-20bは、より高いアクセシビリティを目的として設計されており、210億パラメータのうち36億をアクティブ化します。重要なのは、gpt-oss-20bがわずか16GBのメモリを持つ消費者向けハードウェアで動作できることで、クラウドインフラを必要としないオンデバイス推論や迅速な開発サイクルに理想的です。
両モデルは、思考の連鎖推論、統合されたツール利用、構造化出力の生成といった洗練された技術をサポートし、高度なAIアプリケーションに対応できるよう設計されています。開発者は、モデルの推論努力を柔軟に調整できるため、特定のタスクにおける処理速度と精度のバランスを微調整することが可能です。
これらのgpt-ossモデルは、OpenAIの内部oシリーズモデルから適応されたトレーニング手法を用いて開発され、ロータリー位置埋め込みやグループ化されたマルチクエリ注意などの機能を組み込んでいます。また、最大128kトークンという印象的なコンテキスト長も誇ります。コーディング(Codeforces)、健康(HealthBench)、数学、およびエージェントベンチマーク(MMLU、TauBench)を含む多様なドメインにわたる広範な評価では、o4-miniやGPT-4oのようなクローズドモデルと比較しても、その堅牢な能力が実証されました。
モデルの振る舞いや潜在的なリスクに関する研究を促進するため、OpenAIはこれらのモデルを、その思考の連鎖推論プロセスを直接監督することなくリリースしました。このアプローチにより、研究者はモデルの内部推論トレースを、偏見や誤用といった問題についてオープンに検証することができます。安全上の懸念に積極的に対処するため、OpenAIは、特に生物学やサイバーセキュリティといった機密性の高い分野において、敵対的データを用いた厳格な最悪シナリオのファインチューニングを実施しました。同社は、これらの過酷な条件下でも、OpenAIの準備フレームワークによれば、モデルが高リスク能力レベルに達しなかったと報告しています。独立した外部専門家レビューアからの所見も、最終リリースに反映されました。さらに安全へのコミットメントを強調するため、OpenAIは50万ドルの賞金プールを伴うレッドチームチャレンジを開始し、コミュニティに対し、実世界のシナリオでモデルを厳密にテストするよう呼びかけています。
gpt-ossモデルは現在、Hugging Faceやその他の様々なデプロイメントサービスなどのプラットフォームで広く利用可能です。特にgpt-oss-20bモデルは、ローカル実行における最小限のハードウェア要件が際立っています。ユーザーは、初回ダウンロード後、インターネット接続なしでコンピュータ上で実行でき、少なくとも16GBのRAM(VRAMまたはシステムメモリ)が必要です。例えば、16GBのRAMを搭載したMacBook Airは、毎秒数十トークンの速度でモデルを実行でき、最新のGPUであれば毎秒数百トークンを達成できます。Microsoftも、ONNX Runtimeを介してWindows向けにGPU最適化バージョンを提供することで20Bモデルのアクセシビリティに貢献しており、Foundry LocalおよびVS Code用AIツールキットを通じて利用可能にしています。