OpenAIがオープンウェイトAIモデルを投入、戦略を転換
OpenAIは、2つの新しい「オープンウェイト」AI推論モデルを発表し、開発者プラットフォームHugging Faceで無料でダウンロードできるようにしました。同社は、これらのモデルを、同等のオープンモデルに対するいくつかのベンチマークで評価した際に「最先端」であると説明しています。
今回のリリースには、単一のNvidia GPUで動作するように設計されたより堅牢なgpt-oss-120bと、16GBメモリを搭載した一般消費者向けノートパソコンで実行できる軽量なgpt-oss-20bの2つの異なるサイズが含まれています。これは、5年以上前にデビューしたGPT-2以来、OpenAIが公にリリースした初の「オープン」言語モデルとなります。
OpenAIは、これらの新しいオープンモデルが、同社がクラウドでホストしているより強力なAIモデルに複雑なクエリを送信できると示しました。このハイブリッドアプローチは、オープンモデルが画像処理などの特定のタスクを実行できない場合でも、開発者がそれをOpenAIのより高性能なクローズドソースモデルに接続できることを意味します。
OpenAIは初期にはオープンソースを積極的に採用していましたが、その後は主にプロプライエタリなクローズドソース開発戦略を追求してきました。このアプローチは、企業や開発者向けにAIモデルへのAPIアクセスを販売することで、大規模なビジネスを構築する上で重要な役割を果たしてきました。しかし、CEOのサム・アルトマンは1月に、OpenAIがその技術のオープンソース化に関して「歴史の誤った側に立っていた」という信念を表明しました。
同社は現在、DeepSeek、アリババのQwen、Moonshot AIなど、世界で最も高性能で広く採用されているオープンモデルを開発している中国のAIラボからの競争激化に直面しています。この転換は、かつてオープンAI分野で支配的だったMetaのLlama AIモデルが、過去1年間で遅れをとっていると報じられている中で起こっています。さらに、トランプ政権は7月に米国のAI開発者に対し、米国の価値観に沿ったグローバルなAI採用を促進するため、より多くの技術をオープンソース化するよう強く促しました。
gpt-ossの導入により、OpenAIは開発者とトランプ政権の両方からの支持を得ることを目指しています。両者は、オープンソース分野における中国のAIラボの台頭を認識しています。サム・アルトマンは、「OpenAIの使命は、AGIが全人類に利益をもたらすことを保証することです。そのため、米国で作成され、民主的価値観に基づき、すべての人に無料で提供され、広範な利益をもたらすオープンAIスタックを世界が構築することに興奮しています」と述べました。
モデル性能とハルシネーション
OpenAIは、その新しいオープンモデルを他のオープンウェイトAIモデルの中でリーダーとして位置づけようとし、この取り組みで成功を主張しました。
ツールを利用した競技コーディングテストであるCodeforcesでは、gpt-oss-120bが2622点、gpt-oss-20bが2516点を獲得しました。両モデルはDeepSeekのR1を上回りましたが、OpenAIのo3およびo4-miniモデルには及ばませんでした。
同様に、さまざまな科目のクラウドソースされた質問による挑戦的なテスト(ツールも使用)であるHumanity’s Last Examでは、gpt-oss-120bが19%、gpt-oss-20bが17.3%のスコアを記録しました。これらの結果は、o3と比較して性能が劣ることを示していますが、DeepSeekやQwenの主要なオープンモデルよりも優れた性能を示しています。
特筆すべきは、OpenAIの新しいオープンモデルが、最新のプロプライエタリAI推論モデルであるo3およびo4-miniと比較して、「ハルシネーション」(不正確または無意味な情報を生成すること)の発生率が著しく高いことです。OpenAIはこれを、小規模モデルが大規模なフロンティアモデルよりも「世界知識」が少ないため、ハルシネーションが増加すると説明しています。人物に関する知識の正確性を測定するためのOpenAIの内部ベンチマークであるPersonQAでは、gpt-oss-120bが質問の49%でハルシネーションを起こし、gpt-oss-20bが53%でハルシネーションを起こしました。この割合は、OpenAIのo1モデル(16%)の3倍以上であり、o4-miniモデル(36%)よりも高いです。
トレーニングとライセンス
OpenAIは、そのオープンモデルがプロプライエタリモデルと同様のプロセスを使用してトレーニングされたと述べています。各オープンモデルは、与えられたクエリに対して少数のパラメータを効率的に活性化するために、混合エキスパート(MoE)アーキテクチャを組み込んでいます。例えば、総パラメータが1170億のgpt-oss-120bは、トークンあたりわずか51億パラメータしか活性化しません。
これらのモデルは、トレーニング後のフェーズで高計算量の強化学習(RL)も受けました。シミュレートされた環境で大規模なNvidia GPUクラスターを使用するこのプロセスは、AIモデルに正しい応答と誤った応答を区別することを教えます。OpenAIのoシリーズモデルと同様に、新しいオープンモデルは「思考の連鎖」(chain-of-thought)プロセスを採用しており、回答を策定するためにより多くの時間と計算リソースを費やしています。この後処理により、オープンモデルはAIエージェントの能力を高めることに優れており、ウェブ検索やPythonコード実行などのツールを呼び出すことができます。しかし、OpenAIは、これらのオープンモデルはテキスト専用であり、同社の他のモデルのように画像や音声を処理または生成することはできないと強調しました。
OpenAIは、gpt-oss-120bとgpt-oss-20bをApache 2.0ライセンスの下でリリースしています。これは、最も許容範囲の広いライセンスの1つと広く見なされています。このライセンスは、企業がOpenAIのオープンモデルを収益化することを許可し、同社からの支払いまたは許可を必要としません。しかし、AI2のような完全にオープンソースのAIラボの提供物とは異なり、OpenAIはこれらのモデルの作成に使用されたトレーニングデータを公開しません。この決定は、OpenAIを含むAIモデルプロバイダーに対する複数の係争中の訴訟の文脈と一致しており、これらの訴訟は著作権で保護された作品に対する不適切なトレーニングを主張しています。
安全上の考慮事項
OpenAIのオープンモデルのリリースは、安全上の懸念から、ここ数ヶ月で複数回延期されたと報じられています。標準的な安全プロトコルに加えて、OpenAIは、悪意のあるアクターがgpt-ossモデルを微調整してサイバー攻撃を促進したり、生物兵器や化学兵器を作成したりできるかどうかを調査しました。
OpenAIおよび第三者評価者による評価後、同社はgpt-ossが生物学的能力をわずかに増加させる可能性があると結論付けました。しかし、微調整後であっても、これらのオープンモデルがこれらの分野で危険の「高い能力」の閾値に達するという証拠は見つかりませんでした。
OpenAIの新しいモデルは、オープンソースの提供物の中で最前線にあるように見えますが、開発者はDeepSeekの次のAI推論モデルであるDeepSeek R2と、Metaのスーパーインテリジェンスラボからの新しいオープンモデルのリリースも期待しています。