Google Presenta Gemma 3 270M: IA Diminuta para Rendimiento en Dispositivos
Durante años, los mayores actores de la industria tecnológica han estado inmersos en una carrera armamentística, desarrollando modelos de inteligencia artificial cada vez más grandes que exigen vastos recursos computacionales y que suelen entregarse como servicios en la nube. Sin embargo, está surgiendo una nueva tendencia: la búsqueda de una IA compacta y eficiente. Google ha presentado recientemente una versión diminuta de su modelo abierto Gemma, diseñado específicamente para la ejecución en dispositivos locales. Esta nueva iteración, denominada Gemma 3 270M, promete un rendimiento notable y una fácil sintonización a pesar de su huella excepcionalmente pequeña.
A principios de este año, Google introdujo sus modelos abiertos Gemma 3 iniciales, que variaban de mil millones a 27 mil millones de parámetros. En el ámbito de la IA generativa, los parámetros representan las variables aprendidas que dictan cómo un modelo procesa la entrada para generar una salida. Generalmente, un mayor número de parámetros se correlaciona con un mejor rendimiento. Sin embargo, Gemma 3 270M rompe este molde con solo 270 millones de parámetros, lo que le permite operar sin problemas en dispositivos cotidianos como teléfonos inteligentes o incluso directamente dentro de un navegador web.
Ejecutar un modelo de IA localmente ofrece ventajas significativas, destacando la privacidad mejorada y la latencia reducida. El Gemma 3 270M fue diseñado pensando en estos casos de uso específicos. Durante las pruebas en un Pixel 9 Pro, este nuevo modelo Gemma demostró una impresionante capacidad para manejar 25 conversaciones concurrentes en el chip Tensor G4 del dispositivo, consumiendo solo el 0.75 por ciento de la batería. Esto lo convierte, con una considerable diferencia, en el modelo Gemma más eficiente lanzado hasta la fecha.
Aunque los desarrolladores deben moderar las expectativas con respecto a su rendimiento en comparación con modelos con miles de millones de parámetros, Gemma 3 270M, no obstante, posee una utilidad considerable. Google utilizó el benchmark IFEval, una prueba estándar para evaluar las capacidades de un modelo para seguir instrucciones, para ilustrar su sorprendente destreza. Gemma 3 270M logró una puntuación del 51.2 por ciento en esta prueba, superando a varios otros modelos ligeros que poseen un mayor número de parámetros. Predeciblemente, se queda corto frente a modelos más grandes como Llama 3.2, que cuentan con más de mil millones de parámetros, pero su brecha de rendimiento es notablemente menor de lo que su fracción de parámetros podría sugerir.
Google afirma que Gemma 3 270M sobresale en el seguimiento de instrucciones directamente de fábrica, pero anticipa que los desarrolladores ajustarán el modelo para sus aplicaciones únicas. Su modesto recuento de parámetros facilita un proceso de ajuste rápido y rentable. Google prevé que el nuevo Gemma se emplee para tareas como la clasificación de texto y el análisis de datos, que puede realizar rápidamente sin exigir grandes recursos computacionales.
Google etiqueta sus modelos Gemma como “abiertos”, un término que, si bien no es sinónimo de “código abierto”, comparte muchas similitudes prácticas. Los desarrolladores pueden descargar el nuevo Gemma de forma gratuita, y sus pesos de modelo están fácilmente disponibles. Fundamentalmente, no existe un acuerdo de licencia comercial separado, lo que permite a los desarrolladores modificar, publicar y desplegar derivados de Gemma 3 270M dentro de sus propias herramientas. Sin embargo, todos los usuarios de los modelos Gemma están sujetos a términos de uso específicos, que prohíben entrenar los modelos para generar resultados dañinos o violar intencionalmente las regulaciones de privacidad. Los desarrolladores también están obligados a detallar cualquier modificación realizada y a proporcionar una copia de los términos de uso para todas las versiones derivadas, que heredan la licencia personalizada de Google.
Gemma 3 270M ya es accesible en plataformas como Hugging Face y Kaggle, disponible en versiones preentrenadas y ajustadas por instrucciones. También se puede probar dentro de Google Vertex AI. Para mostrar aún más las capacidades del modelo, Google ha destacado un generador de historias totalmente basado en navegador construido sobre Transformer.js, ofreciendo una demostración tangible incluso para aquellos que no están directamente involucrados en el desarrollo de modelos ligeros.