Gemma 3 270M de Google : l'IA minuscule qui tourne sur votre grille-pain

Siliconangle

Google DeepMind, la branche de recherche en intelligence artificielle de Google LLC, a dévoilé l’un de ses modèles d’IA les plus compacts à ce jour : Gemma 3 270M. Ce nouveau modèle ne compte que 270 millions de paramètres, un contraste frappant avec les milliards que l’on trouve généralement dans les modèles de langage de grande envergure les plus puissants, dont les paramètres sont des réglages internes dictant leur comportement.

Le choix de conception délibéré pour Gemma 3 270M privilégie la rationalisation et l’efficacité, lui permettant de fonctionner directement sur des appareils à faible consommation tels que les smartphones, même sans connexion internet. Malgré sa taille diminutive, Google affirme que Gemma 3 270M est très capable de s’attaquer à un spectre étroit de tâches complexes et spécifiques à un domaine, en grande partie parce que les développeurs peuvent le régler rapidement pour répondre à leurs exigences précises. Soulignant son accessibilité, Omar Sanseviero, ingénieur en relations avec les développeurs IA chez Google DeepMind, a fait remarquer avec humour sur X que le modèle est suffisamment petit pour fonctionner « dans votre grille-pain » ou sur du matériel compact comme le Raspberry Pi.

L’équipe de Google DeepMind a expliqué plus en détail dans un article de blog que l’architecture de Gemma 3 270M combine 170 millions de « paramètres d’intégration » avec 100 millions de « paramètres de bloc transformateur ». Cette configuration lui permet de traiter même des unités de langage rares et spécifiques, ce qui en fait un modèle fondamental robuste pouvant être efficacement spécialisé pour des tâches et des langues particulières. Sa conception assure de solides performances dans les tâches de suivi d’instructions tout en restant suffisamment petit pour un réglage rapide et un déploiement sur des appareils aux ressources computationnelles limitées. L’architecture du modèle s’inspire de la famille Gemma 3 plus large, conçue pour fonctionner sur une seule unité de traitement graphique, et est livrée avec des ressources complètes, y compris des recettes de réglage fin, de la documentation et des guides de déploiement pour des outils de développement populaires comme Hugging Face, JAX et UnSlot.

Les premiers résultats de benchmark pour Gemma 3 270M semblent prometteurs. Une variante du modèle réglée pour les instructions a obtenu un score de 51,2 % sur le benchmark IFEval, qui évalue la compétence d’un modèle d’IA à suivre précisément les instructions. Cette performance surpasse significativement les modèles compacts de taille similaire tels que Qwen 2.5 0.5B Instruct et SmolLM2 135M Instruct, et Google note qu’elle approche même les capacités de certains modèles plus petits avec des milliards de paramètres. Cependant, le paysage concurrentiel pour les modèles d’IA compacts est féroce. La startup Liquid AI Inc. a rapidement contrecarré les affirmations de Google, soulignant que son modèle LFM2-350M, lancé un mois auparavant, avait obtenu un score plus élevé de 65,12 % sur le même benchmark, malgré un nombre de paramètres légèrement supérieur.

Néanmoins, Google souligne que le principal avantage de Gemma 3 270M réside dans son efficacité énergétique. Des tests internes menés avec la version quantifiée INT4 du modèle sur un smartphone Pixel 9 Pro ont révélé une remarquable économie d’énergie : 25 conversations n’ont consommé que 0,75 % de la batterie de l’appareil. Cela fait de Gemma 3 270M un choix idéal pour les développeurs souhaitant déployer l’IA directement sur les appareils, une capacité cruciale pour les applications où la confidentialité des données et la fonctionnalité hors ligne sont primordiales.

Google souligne que les développeurs d’IA devraient choisir les outils en fonction de la tâche spécifique plutôt que de la seule taille du modèle pour améliorer les performances des applications. Pour des tâches telles que l’écriture créative, les vérifications de conformité, l’extraction d’entités, le routage de requêtes, l’analyse de sentiments et la génération de texte structuré, Gemma 3 270M peut être réglé pour fournir des résultats efficaces avec une efficacité de coût nettement supérieure à celle des modèles de langage plus grands, de plusieurs milliards de paramètres. Une vidéo de démonstration convaincante a montré un développeur construisant une application de générateur d’histoires pour enfants alimentée par Gemma 3 270M. L’application, capable de fonctionner hors ligne dans un navigateur web, génère des histoires originales pour enfants basées sur les invites des parents, synthétisant plusieurs entrées comme le personnage, le cadre, le thème, le rebondissement et la longueur d’histoire souhaitée pour produire rapidement des récits cohérents. Cela illustre l’avancement rapide de l’IA sur appareil, ouvrant la voie à de nouvelles applications qui fonctionnent sans connexion internet. Gemma 3 270M est désormais accessible aux développeurs via des plateformes comme Hugging Face, Docker, Kaggle, Ollama et LM Studio, avec des versions pré-entraînées et ajustées pour les instructions disponibles au téléchargement.