OpenAI、新オープンウェイト言語モデル「gpt-oss」を発表
OpenAIは、gpt-oss-120bとgpt-oss-20bという2つの新しい最先端のオープンウェイト言語モデルのリリースを発表しました。これらは低コストで堅牢な実世界性能を提供することを目的としています。寛容なApache 2.0ライセンスの下で公開されるこの動きは、OpenAIが2019年のGPT-2以来初めてオープンウェイトの大規模言語モデルをリリースするものであり、AIエコシステムにおけるアクセシビリティの拡大に向けた重要な一歩を示しています。
gpt-ossモデルは、推論タスクで優れた性能を発揮し、強力なツール使用能力を示し、同規模のオープンモデルを上回ります。より大規模なgpt-oss-120bモデルは、総パラメータ数が1168億、トークンあたりのアクティブパラメータ数が51億に達し、主要な推論ベンチマークにおいてOpenAI独自のo4-miniモデルとほぼ同等の性能を達成しています。注目すべきは、この強力なモデルが単一の80GB GPU上で効率的に動作するよう最適化されている点です。
よりアクセスしやすい展開のために、総パラメータ数209億、アクティブパラメータ数36億のgpt-oss-20bモデルは、OpenAIのo3-miniに匹敵する性能を提供します。重要なのは、この小型モデルがわずか16GBのメモリを持つコンシューマーハードウェア上で動作できるため、オンデバイスのユースケース、ローカル推論、高価なインフラを必要としない迅速な開発に理想的である点です。両モデルは、Mixture-of-Experts (MoE)の重みに対して4ビット量子化スキーム(MXFP4)を活用しており、これによりメモリフットプリントが大幅に削減され、効率的な推論が可能になります。
gpt-ossモデルは、GPT-2およびGPT-3の基盤アーキテクチャに基づいて構築された、テキストのみの自己回帰型Mixture-of-Experts (MoE)トランスフォーマーです。これらは、エージェントワークフローへのシームレスな統合のために設計されており、優れた指示追従能力、ウェブ検索やPythonコード実行などの高度なツール使用、そしてカスタマイズ可能な推論能力(異なるレベルの複雑さやレイテンシーを必要とするタスクに対して推論の労力を調整する能力を含む)を特徴としています。開発者は、完全なChain-of-Thought (CoT)と構造化出力からも恩恵を受けることができ、モデルのプロセスに対するより大きな制御と透明性を提供します。一般的な推論を超えて、これらのモデルは競技数学、コーディング、健康関連のクエリなどの分野で特に強みを発揮し、HealthBenchのようなベンチマークでは一部のプロプライエタリモデルさえも上回っています。
今回のリリースは、オープンウェイトモデルが強力なAI技術へのアクセスをますます民主化している、進化するAIランドスケープにおける注目すべき発展です。これらのモデルをApache 2.0ライセンスの下で利用可能にすることで、OpenAIは開発者や組織が自身のインフラでAIをダウンロード、ファインチューニング、展開することを可能にし、ベンダー固有のAPIへの依存を減らし、より大きな制御とカスタマイズを促進します。この変化は、オープンウェイトシステムがクローズドモデルとの性能差を縮め、参入障壁を下げ、コミュニティコラボレーションを通じてイノベーションを加速するという、より広範な業界トレンドと一致しています。gpt-ossモデルはHugging Faceでダウンロードできるほか、AWS上のAmazon BedrockおよびAmazon SageMaker AI、そしてOllamaを通じてアクセスすることもできます。
OpenAIは、特に公開された後に悪用される可能性のあるオープンモデルの場合、モデルリリースに対するアプローチの基本的な側面として安全性が依然として重要であることを強調しています。gpt-ossモデルは、敵対的にファインチューニングされたバージョンのテストを含む、包括的な安全性トレーニングと評価を受けました。OpenAIの安全ポリシーにデフォルトで準拠するように設計されていますが、同社は、これらのモデルを利用する開発者や企業は、OpenAIのAPI提供モデルに通常組み込まれているシステムレベルの保護を再現するために、追加の安全対策を実装する必要があることを指摘しています。これは、AI機能がより広く普及するにつれて、倫理的な展開に対する共同責任を反映しています。