Google Gemma 3 270M: El pequeño modelo de IA que cabe en tu tostadora

Siliconangle

Google DeepMind, la rama de investigación de inteligencia artificial de Google LLC, ha presentado uno de sus modelos de IA más compactos hasta la fecha: Gemma 3 270M. Este nuevo modelo cuenta con apenas 270 millones de parámetros, un marcado contraste con los miles de millones que suelen encontrarse en los modelos de lenguaje grandes de frontera más potentes, cuyos parámetros son configuraciones internas que dictan su comportamiento.

La elección de diseño deliberada para Gemma 3 270M prioriza la optimización y la eficiencia, permitiéndole operar directamente en dispositivos de baja potencia como smartphones, incluso sin conexión a internet. A pesar de su tamaño diminuto, Google afirma que Gemma 3 270M es altamente capaz de abordar un espectro limitado de tareas complejas y específicas de dominio, en gran parte porque los desarrolladores pueden ajustarlo rápidamente para satisfacer sus requisitos precisos. Destacando su accesibilidad, Omar Sanseviero, ingeniero de relaciones con desarrolladores de IA en Google DeepMind, comentó con humor en X que el modelo es lo suficientemente pequeño como para ejecutarse “en su tostadora” o en hardware compacto como la Raspberry Pi.

El equipo de Google DeepMind explicó además en una publicación de blog que la arquitectura de Gemma 3 270M combina 170 millones de “parámetros de incrustación” con 100 millones de “parámetros de bloque transformador”. Esta configuración le permite procesar incluso unidades de lenguaje raras y específicas, convirtiéndolo en un modelo fundacional robusto que puede especializarse eficazmente para tareas e idiomas particulares. Su diseño garantiza un fuerte rendimiento en tareas de seguimiento de instrucciones, al tiempo que permanece lo suficientemente pequeño para un ajuste rápido y su despliegue en dispositivos con recursos computacionales limitados. La arquitectura del modelo se basa en la familia más grande Gemma 3, diseñada para ejecutarse en una única unidad de procesamiento gráfico, y viene con recursos completos que incluyen recetas de ajuste fino, documentación y guías de despliegue para herramientas populares de desarrollo como Hugging Face, JAX y UnSlot.

Los resultados iniciales de los benchmarks para Gemma 3 270M parecen prometedores. Una variante del modelo ajustada para instrucciones logró una puntuación del 51.2% en el benchmark IFEval, que evalúa la competencia de un modelo de IA para seguir instrucciones con precisión. Este rendimiento supera significativamente a modelos compactos de tamaño similar como Qwen 2.5 0.5B Instruct y SmolLM2 135M Instruct, y Google señala que incluso se acerca a las capacidades de algunos modelos más pequeños con miles de millones de parámetros. Sin embargo, el panorama competitivo para los modelos de IA compactos es feroz. La startup Liquid AI Inc. rápidamente refutó las afirmaciones de Google, señalando que su modelo LFM2-350M, lanzado solo un mes antes, logró una puntuación más alta del 65.12% en el mismo benchmark, a pesar de tener solo ligeramente más parámetros.

Sin embargo, Google subraya que la principal ventaja de Gemma 3 270M radica en su eficiencia energética. Pruebas internas realizadas con la versión cuantificada INT4 del modelo en un smartphone Pixel 9 Pro revelaron una notable conservación de energía: 25 conversaciones consumieron solo el 0.75% de la batería del dispositivo. Esto convierte a Gemma 3 270M en una opción ideal para desarrolladores que buscan desplegar IA directamente en dispositivos, una capacidad crucial para aplicaciones donde la privacidad de los datos y la funcionalidad offline son primordiales.

Google enfatiza que los desarrolladores de IA deberían seleccionar herramientas basándose en la tarea específica en lugar de únicamente en el tamaño del modelo para mejorar el rendimiento de la aplicación. Para tareas como la escritura creativa, verificaciones de cumplimiento, extracción de entidades, enrutamiento de consultas, análisis de sentimientos y generación de texto estructurado, Gemma 3 270M puede ser ajustado para ofrecer resultados efectivos con una eficiencia de costos significativamente mayor que los modelos de lenguaje más grandes, con miles de millones de parámetros. Un video de demostración convincente mostró a un desarrollador construyendo una aplicación de Generador de Cuentos para Dormir impulsada por Gemma 3 270M. La aplicación, capaz de ejecutarse sin conexión en un navegador web, genera historias infantiles originales basadas en las indicaciones de los padres, sintetizando múltiples entradas como personaje, escenario, tema, giro de la trama y duración deseada de la historia para producir rápidamente narrativas coherentes. Esto ilustra el rápido avance de la IA en el dispositivo, abriendo puertas a nuevas aplicaciones que operan sin conexión a internet. Gemma 3 270M ya está accesible para desarrolladores a través de plataformas como Hugging Face, Docker, Kaggle, Ollama y LM Studio, con versiones preentrenadas y ajustadas para instrucciones disponibles para descarga.