OpenAI、オープンウェイトGPT-OSSモデルを発表:戦略的転換点

Datanami

OpenAIの野心的なGPT-5のローンチによる騒ぎが収まる中、今週同社から発表されたもう一つの重要なニュースが大きな注目を集めています。それは、2つの新しいオープンウェイトモデル、gpt-oss-120bとgpt-oss-20bのリリースです。この動きは、過去6年間主にプロプライエタリモデルの開発に注力してきたOpenAIにとって注目すべき転換を示しています。Databricks、Microsoft、AWSなどのパートナーは、AIエコシステムにおけるOpenAIのよりオープンなアプローチへの回帰を熱烈に歓迎しています。

これらの新しい言語モデル、gpt-oss-120bとgpt-oss-20bは、それぞれ約1200億と200億のパラメータを特徴としています。これらの数値は大きいものの、現在市場を席巻している最大の「兆パラメータ」モデルと比較すると、モデルは比較的小型に位置付けられます。両方のgpt-ossモデルは推論エンジンとして設計されており、「エキスパートの混合」(MoE)アーキテクチャを活用することで、情報をより効率的に処理できます。特に、より大きなgpt-oss-120bは標準的なデータセンタークラスのGPUで効果的に動作でき、その小型版であるgpt-oss-20bは、わずか16GBのメモリを備えた一般的なデスクトップコンピューターで実行できるため、エッジデバイスに適しています。

OpenAIは、gpt-oss-120bモデルがコア推論ベンチマークにおいて、既存のo4-miniモデルと「ほぼ同等」の性能を達成し、すべて単一の80GB GPUで効率的に動作すると主張しています。同社はさらに、gpt-oss-20bがOpenAIのo3-miniと共通ベンチマークで同等の性能を持つことを強調し、オンデバイスのユースケース、ローカル推論、または高価なインフラを必要としない迅速な開発への適合性を強調しています。OpenAIのローンチパートナーであるCloudflareは、これらのモデルがFP4量子化にネイティブに最適化されていることを指摘しています。これは、FP16精度の1200億パラメータモデルと比較して、GPUメモリフットプリントを大幅に削減する技術です。これにより、MoEアーキテクチャと組み合わせることで、新しいモデルは同サイズの従来の密なモデルよりも高速かつ効率的に動作します。

gpt-ossモデルは、128Kのコンテキストウィンドウを提供し、低、中、高の調整可能な推論レベルを提供します。これらは現在英語のみで、テキストベースのアプリケーション専用に設計されており、MetaのLlamaのようなマルチモーダルなオープンウェイトモデルとは区別されます。しかし、Apache 2.0ライセンスの下でオープンウェイトモデルとして配布されるということは、顧客が前例のない柔軟性を得ることを意味します。彼らはこれらのモデルを任意の場所にデプロイして実行でき、そして最も重要なことに、独自のデータで微調整して特定のニーズに合わせた優れた性能を達成できます。

主要なローンチパートナーであるDatabricksは、すでにgpt-oss-120bとgpt-oss-20bを自社のAIマーケットプレイスで提供しています。DatabricksのニューラルネットワークCTOであるHanlin Tangは、OpenAIの転換に熱意を表明し、「私たちはMetaのLlamaモデルから過去の自社モデルまで、非常に長い間オープンソースとオープンモデルを受け入れてきました。OpenAIがオープンモデルの世界に参加するのを見るのは素晴らしいことです。」と述べました。Tangは、モデルのウェイトへの完全なアクセスによってもたらされる透明性の向上と深いカスタマイズの可能性を強調しました。初期テストは進行中ですが、Tangは初期の兆候が「非常に有望」であると述べ、MoEアーキテクチャがAIエージェント、チャットボット、コパイロットといった低遅延アプリケーションに特に適していると指摘しました。これらは現在最も人気のあるAIアプリケーションタイプの一部です。テキスト専用ではありますが、Tangはテキスト要約のようなバッチワークロードでの強力な性能を期待しています。

MicrosoftもOpenAIのオープンウェイトモデル採用を強く支持し、「オープンモデルは周縁から主流へと移行した」と宣言しました。同社は開発者にとっての利点を強調し、オープンウェイトによってチームがLoRA、QLoRA、PEFTなどの効率的な方法を使用してモデルを迅速に微調整し、プロプライエタリデータを統合し、数週間ではなく数時間で新しいチェックポイントをデプロイできると説明しました。Microsoftはさらに、gpt-ossモデルの蒸留、量子化、またはコンテキスト長の短縮、エッジGPUやハイエンドラップトップでの厳格なメモリ要件のための「構造的スパース性」の適用、およびより簡単なセキュリティ監査のための「ドメインアダプター」の注入能力を強調しました。本質的に、Microsoftはこれらのオープンモデルを単なる機能的に同等の代替品としてではなく、「プログラム可能な基盤」として見ています。つまり、深くカスタマイズできる基本的なツールです。

AWSもOpenAIのイニシアチブを支持しており、AWSの製品ディレクターであるAtul Deoは、「オープンウェイトモデルは、生成AI技術の将来の開発における重要なイノベーション分野であり、そのため私たちはAWSをそれらを実行するための最高の場所にするために投資してきました。本日OpenAIからリリースされるモデルも含まれます。」と述べています。

AI採用者の間で広がる傾向は、戦略的なミックス&マッチのアプローチです。GPT-5のような大規模なプロプライエタリ言語モデルは、その広範なトレーニングデータのために汎化能力に優れていますが、多くの場合コストが高く、深いカスタマイズの柔軟性に欠けます。対照的に、より小さなオープンウェイトモデルは、汎化能力がそれほど広くないかもしれませんが、その開放性により微調整、デプロイの柔軟性(プライバシー上の利点を提供)、そして一般的にはより費用対効果の高い運用が可能です。選択は、Hanlin Tangが説明したように、顧客の特定のユースケースに適切なAIモデルを適合させることに帰着します。企業は、プロプライエタリモデルから得られる「超高品質」の追求と、オープンウェイトの代替案が提供する費用対効果と深いカスタマイズとのバランスをとりながら、多様な選択をますます行っています。