Groq、AIチップで60億ドル評価に迫る:新たな資金調達ラウンド
AIチップスタートアップのGroqが、約6億ドルに迫る大規模な資金調達ラウンドを確保する寸前にあると報じられており、これにより同社の評価額は約60億ドルにまで押し上げられる見込みです。ブルームバーグが報じ、交渉に詳しい情報筋が確認したこの動きは、約9ヶ月でGroqの評価額が倍増することを意味し、特殊なAIハードウェア市場に対する投資家の強い関心を示しています。ベンチャーキャピタル企業のDisruptiveがこの投資を主導し、3億ドル以上を投入するとされていますが、条件はまだ最終決定されておらず、変更される可能性があります。
元Googleのエンジニアによって設立されたGroqは、言語処理ユニット(LPU)と呼ばれる独自のアーキテクチャを開発することで、急成長するAIチップ業界でニッチを確立しました。AIトレーニングを支配する汎用GPU(グラフィックス処理ユニット)とは異なり、GroqのLPUはAI推論、つまり事前に学習されたAIモデルを実行して予測や応答を生成するプロセスに特化して設計されています。この専門化により、Groqは特に大規模言語モデル(LLM)において、非常に高速かつ低遅延を実現できます。例えば、GroqのLPUは、約1秒で500語以上を生成でき、同じタスクに約10秒かかるNvidiaのGPUを大幅に上回ります。一部のベンチマークでは、特定のLLM推論タスクにおいて、GroqのLPUがNvidiaのA100 GPUと比較してスループットで最大9〜18倍高速であり、同時にエネルギー効率も優れていることが示唆されています。
同社が推論に戦略的に焦点を当てているのは、変革期にあるAIチップ市場における計算された動きです。NvidiaがAIトレーニングで依然として優位に立っている一方で、チャットボット、自動運転車、ロボティクスなどのリアルタイムアプリケーションにおけるAIの採用拡大により、高性能で低遅延な推論ソリューションへの需要が急速に高まっています。AIチップ市場全体は大幅な成長が見込まれており、一部の予測では2025年までに911.8億ドルに達し、2030年までには4000億ドルを超える可能性さえあります。
Groqの成長戦略には、グローバルなAI推論機能の大幅な拡大とサービス提供の多様化が含まれます。この拡大の重要な要素は、2025年第1四半期までに10万台以上のLPUを追加展開するという野心的な計画であり、さらに2025年末までに200万台に達するというさらに積極的な目標も掲げられています。これは、Groqを主要なAI推論コンピューティングプロバイダーとして位置づけ、世界のAI推論サービスの半分以上を管理する可能性を狙っています。
Groqの注目すべき最近の成果は、サウジアラビアと締結したと報じられている15億ドルの契約で、ダンマームに世界最大のAI推論ハブを設立するというものです。この契約は、2025年にGroqに約5億ドルの収益をもたらすと予想されており、サウジアラビアの「AIビジョン2030」イニシアチブと一致しています。このパートナーシップには、GroqのLPU展開を拡大するための15億ドルの投資も含まれており、2025年までに10万台以上のユニットを展開する計画です。
Groqはまた、GroqCloudプラットフォームを通じてクラウドファーストモデルに移行し、開発者向けに「Inference as a Service(推論サービス)」を提供しています。この消費ベースの価格戦略は、複数の収益源を生み出し、高性能AIへのアクセスを民主化することを目的としています。同社は2024年3月にDefinitive Intelligenceを買収し、クラウド機能を強化しました。
印象的なパフォーマンスと戦略的動きにもかかわらず、Groqは課題に直面しています。高い評価額は、大幅な収益予測と同社がLPU技術を拡張する能力に基づいています。GroqのLPUは一部のNvidia GPUよりも初期費用が高いものの、消費電力と運用コストが低いため、長期的な費用対効果を提供します。しかし、Groqのチップは現在、オンチップ高帯域幅メモリ(HBM)を欠いており、オンダイSRAMに依存しているため、より多くのメモリ容量と帯域幅を必要とする大規模モデルやバッチサイズでのパフォーマンスが制限される可能性があります。さらに、有用なモデルを適合させるには、単一チップのSRAMが限られているため、多くのGroqチップをネットワークで接続する必要があることがよくあります。同社はまた、サウジアラビアとの契約以外の収益源を多様化し、開発者エコシステムを拡大し続けることで、長期的な成功を確実にする必要があります。