GoogleのGemma 3 270M:スマホで動く、ポケットサイズのAI
オンデバイス人工知能における大きな飛躍として、Googleは、スマートフォンやその他のエッジデバイスで直接動作するように設計された、これまでのところ最もコンパクトなAIモデルであるGemma 3 270Mを発表しました。このミニチュアの強力なモデルは、より広範なGemma 3ファミリーの一部であり、大規模なクラウドインフラストラクチャにのみ依存するのではなく、高度なAI機能をユビキタスで高効率にするという戦略的な転換を示しています。
わずか2億7000万のパラメータを持つGemma 3 270Mは、従来の大型言語モデルのほんの一部にすぎませんが、日常のアプリケーションに実質的な有用性をもたらすと期待されています。スマートフォンで直接動作するように設計されており、約0.5GBのRAMしか消費しません。これは、その能力を持つAIモデルとしては驚くほど小さなフットプリントです。この効率性はバッテリー消費にも及びます。Pixel 9 Proでの内部テストでは、INT4量子化モデルが25回の会話でデバイスのバッテリーをわずか0.75%しか消費しなかったことが示され、GoogleのGemmaモデルの中でこれまでで最も電力効率が高いものとなっています。このエネルギー効率の画期的な進歩は、バッテリー寿命と熱性能が最重要視されるモバイルデバイスでの広範な採用にとって不可欠です。
AIモデルをデバイス上でローカルに実行する能力(「オンデバイスAI」とよく呼ばれる)は、多くの利点をもたらします。その中でも最も重要なのは、ユーザーのプライバシーの強化です。機密データは、外部のクラウドサーバーに送信される必要なく、スマートフォン上で直接処理できるからです。このローカル処理は、レイテンシの大幅な削減にもつながり、瞬時の応答を提供し、インターネット接続がない場合でもAI機能を有効にします。さらに、開発者や企業にとって推論コストを大幅に削減するのに役立ち、継続的で高価なクラウドベースの計算の必要性を排除します。Googleはまた、データセンターへの依存度を低減することによる炭素排出量の削減を指摘し、環境上の利点も強調しています。
Gemma 3 270Mは、その大型モデルのような汎用会話AIとしてではなく、特定のタスクに特化した高度なツールとして意図されています。命令の追従とテキストの構造化に優れており、ファインチューニングされたアプリケーションの理想的な基盤となります。開発者は、そのコンパクトなアーキテクチャを活用して、感情分析、エンティティ抽出、クエリルーティング、非構造化テキストから構造化データへの変換、さらにはクリエイティブライティングなど、幅広い機能を実現できます。モデルが検証可能な命令に従う能力を評価するIFEvalベンチマークでの堅牢なパフォーマンスは、そのサイズのモデルの新しい標準を設定します。スマートフォン以外にも、このモデルは、医療用ウェアラブルや自律型IoTシステムなどのモノのインターネット(IoT)デバイス上のAIを強化したり、Webブラウザ内やRaspberry Piのような小型で低電力のコンピュータ上で直接実行したりすることもできます。一例として、「おやすみ物語ジェネレーター」アプリでの潜在的な応用が示されており、デバイス上でパーソナライズされた、コンテキスト豊かな物語を作成します。
Gemma 3 270Mのリリースは、Microsoft、Mistral AI、Hugging Faceなどの企業も効率的なAIソリューションに多額の投資を行っている、小規模言語モデル(SLM)へのより広範な業界トレンドの一部です。Googleは、このモデルを、オープンAI技術とプロプライエタリAI技術を融合させる戦略である「Gemmaverse」の重要なコンポーネントと見なしています。商用利用、変更、配布を許可する寛容なライセンスの下で利用可能であるGemma 3 270Mは、AI開発を民主化し、より幅広い開発者が革新的なオンデバイスAIアプリケーションを構築できるようにする態勢が整っています。