オープンソースAIモデル:トークン非効率性による長期コスト増大
企業が業務に人工知能を統合するにつれて、重要な決定が浮上します。それは、オープンソースAIモデルを採用するか、それともプロプライエタリなAIモデルを採用するかです。オープンソースの選択肢は一見すると経済的であるように思えますが、Nous Researchの最近の研究では、計算能力に対する要求が高いため、これらの初期の節約がすぐに失われる可能性があることが示唆されています。今週発表された調査結果は、オープンソースAIモデルが同一のタスクを実行する際に、クローズドソースの競合モデルよりも著しく多くの計算リソースを消費する傾向があることを示しています。
このリソース消費を定量化するために、Nous Researchの研究者たちは、GoogleやOpenAIといった業界の巨人のクローズドシステムに加え、DeepSeekやMagistralなどの開発者によるオープンソースの代替モデルを含む、数十のAIモデルを厳密にテストしました。彼らは、各モデルが単純な知識に関する質問、数学の問題、論理パズルに分類された一連のタスクを完了するために必要な計算作業を綿密に測定しました。この測定の主要な指標は、各モデルが応答を処理し生成するために使用した「トークン」の数でした。
人工知能の領域では、トークンはモデルが処理するテキストまたはデータの最小単位を表します。それは単語、単語の断片、あるいは句読点である場合もあります。AIモデルは、これらのトークンを順次処理することで言語を理解し、生成します。したがって、特定のタスクにおけるトークン数が多いほど、計算能力の増加と処理時間の延長に直接つながります。この研究は驚くべき格差を浮き彫りにしました。「オープンウェイトモデルは、クローズドモデルよりも1.5〜4倍多くのトークンを使用し、単純な知識に関する質問では最大10倍多く使用するため、トークンあたりのコストが低いにもかかわらず、クエリあたりのコストが高くなる場合があります」と著者らは指摘しています。
この効率性のギャップは、AIを導入する企業にとって重大な影響を及ぼします。まず、オープンウェイトモデルの直接的なホスティングコストは低いかもしれませんが、モデルが問題を分析して解決するためにはるかに多くのトークンを要求する場合、この利点はすぐに無効になる可能性があります。第二に、トークン数が増加すると、生成時間の延長とレイテンシの増加に直結し、迅速な応答を必要とするアプリケーションにとっては不利になる可能性があります。ほとんどのクローズドソースモデルは内部の推論プロセスや「思考連鎖」を開示しないため、研究者たちは、モデルの内部処理と最終的な回答の両方を含む総出力トークンを、消費された計算作業の信頼できる代理指標として使用しました。
この研究は、オープンソースモデルが同じタスクに対してクローズドモデルよりも一貫して多くのトークンを必要とすることを明確に示しました。単純な知識に関する質問では、オープンモデルが3倍ものトークンを使用することもありました。より複雑な数学的および論理的な問題ではこの差は縮まりましたが、オープンモデルは依然としてほぼ2倍のトークンを消費しました。この研究は、OpenAIやGrok-4のようなクローズドモデルがトークン効率のために最適化されている可能性があり、これはおそらく運用コストを最小限に抑えるためであると仮定しています。対照的に、DeepSeekやQwenのようなオープンモデルは、より多くのトークンを消費しますが、これはより堅牢な推論プロセスを促進するためである可能性があります。
評価されたオープンソースモデルの中で、llama-3.3-nemotron-super-49b-v1が最もトークン効率が高いことが判明し、Magistralモデルは最も効率が低いことが示されました。OpenAIの提供する製品、特にo4-miniと新しいオープンウェイトのgpt-ossモデルは、特に数学の問題に取り組む際に、驚くべきトークン効率を示しました。研究者たちは、OpenAIのgpt-ossモデルが、その簡潔な内部推論連鎖により、オープンソースAIモデルのより広い範囲でトークン効率を改善するための潜在的なベンチマークとなる可能性があると具体的に指摘しました。
最終的に、この研究は企業にとって重要な考慮事項を強調しています。AIモデルの真のコストは、初期のライセンス料や導入費用をはるかに超えるものです。計算リソースの消費に大きく影響される長期的な運用費用は、一見すると安価に見えるオープンソースの選択肢を、時間が経つにつれてより高価な取り組みに変える可能性があります。