GoogleがGemma 3 270Mを発表:デバイス向け超小型AIで高性能を実現

Arstechnica

長年にわたり、テクノロジー業界の主要企業は、膨大な計算資源を必要とし、通常クラウドサービスとして提供される、ますます大規模な人工知能モデルの開発において軍拡競争に陥ってきました。しかし、新たなトレンドが台頭しています。それは、コンパクトで効率的なAIの追求です。Googleは最近、オープンなGemmaモデルの小型バージョンを発表しました。これは、ローカルデバイスでの実行に特化して設計されています。Gemma 3 270Mと名付けられたこの新しいイテレーションは、その非常に小さいフットプリントにもかかわらず、優れたパフォーマンスと容易なチューニングを約束します。

今年初め、Googleは、10億から270億のパラメータを持つ最初のGemma 3オープンモデルを導入しました。生成AIの領域において、パラメータはモデルが入力から出力を生成する方法を決定する学習済み変数を表します。一般的に、パラメータ数が多いほどパフォーマンスが向上します。しかし、Gemma 3 270Mは、わずか2億7000万のパラメータでこの常識を打ち破り、スマートフォンなどの日常的なデバイスや、Webブラウザ内でさえもシームレスに動作することを可能にしました。

AIモデルをローカルで実行することには、プライバシーの強化とレイテンシの削減という、特に顕著な利点があります。Gemma 3 270Mは、これらの特定のユースケースを念頭に置いて設計されました。Pixel 9 Proでのテスト中、この新しいGemmaモデルは、デバイスのTensor G4チップ上で25の同時会話を処理する印象的な能力を示し、バッテリー消費はわずか0.75パーセントでした。これにより、Gemmaモデルの中でこれまでリリースされた中で最も効率的なモデルとなりました。

数十億のパラメータを持つモデルと比較して、そのパフォーマンスに対する開発者の期待は抑えるべきですが、Gemma 3 270Mはそれでもかなりの有用性を持っています。Googleは、モデルの指示に従う能力を評価する標準テストであるIFEvalベンチマークを使用して、その驚くべき能力を実証しました。Gemma 3 270Mはこのテストで51.2パーセントのスコアを達成し、より多くのパラメータを持つ他のいくつかの軽量モデルを上回りました。当然のことながら、10億以上のパラメータを誇るLlama 3.2のような大規模モデルには及びませんが、その性能差は、そのパラメータの割合が示唆するよりもはるかに小さいです。

Googleは、Gemma 3 270Mが箱から出してすぐに指示に従うのに優れていると主張していますが、開発者が独自のアプリケーションのためにモデルをファインチューニングすることを期待しています。その控えめなパラメータ数は、迅速かつ費用対効果の高いファインチューニングプロセスを容易にします。Googleは、新しいGemmaがテキスト分類やデータ分析などのタスクに利用されることを想定しており、これらのタスクを大量の計算リソースを必要とせずに迅速に実行できます。

GoogleはGemmaモデルを「オープン」と呼んでいます。この用語は「オープンソース」と同義ではありませんが、多くの実用的な類似点を共有しています。開発者は新しいGemmaを無料でダウンロードでき、そのモデルの重みはすぐに利用可能です。重要なことに、別途の商用ライセンス契約はなく、開発者はGemma 3 270Mの派生モデルを独自のツール内で変更、公開、展開することができます。ただし、Gemmaモデルのすべてのユーザーは特定の利用規約に拘束され、有害な出力を生成するためにモデルをトレーニングすることや、意図的にプライバシー規制に違反することは禁止されています。開発者はまた、行われた変更を詳細に記述し、すべての派生バージョンについて利用規約のコピーを提供することが義務付けられています。これらの派生バージョンはGoogleのカスタムライセンスを継承します。

Gemma 3 270Mは、Hugging FaceやKaggleなどのプラットフォームで、事前学習済みバージョンと指示チューニングバージョンの両方で利用可能です。また、GoogleのVertex AI内でもテストできます。モデルの機能をさらに示すために、GoogleはTransformer.js上に構築された完全にブラウザベースのストーリー生成器を強調しており、軽量モデル開発に直接関与していない人々にも具体的なデモンストレーションを提供します。