GLM-4.5 de Zhipu AI: LLM de Código Abierto que Rivaliza con Modelos Occidentales

Decoder

La potencia china en IA, Zhipu AI, ha presentado sus últimos avances, las familias de modelos GLM-4.5 y GLM-4.5V, lo que señala un avance significativo en los modelos de lenguaje grandes de código abierto diseñados para razonamiento lógico complejo, programación sofisticada y tareas de agente autónomo. Estos nuevos modelos están diseñados para abordar una variedad de aplicaciones prácticas, desde la generación de minijuegos interactivos y simulaciones físicas intrincadas hasta la producción autónoma de diapositivas de presentación con capacidades de búsqueda web integradas, e incluso el desarrollo de aplicaciones web completas que abarcan tanto la funcionalidad de front-end como de back-end.

La variante multimodal, GLM-4.5V, amplía estas capacidades al incorporar análisis avanzado de imágenes y videos. Esta versión puede reconstruir sitios web completos a partir de simples capturas de pantalla y realizar operaciones en pantalla, lo que permite comportamientos de agente altamente autónomos. Los usuarios pueden explorar estas características a través de una interfaz estilo ChatGPT disponible de forma gratuita en chat.z.ai después de un simple inicio de sesión.

La nueva línea de Zhipu AI comprende tres modelos distintos: el robusto GLM-4.5, el GLM-4.5-Air más eficiente en recursos, y el multimodal GLM-4.5V, que se basa en la versión Air. Cada modelo ofrece un enfoque operativo de doble modo, con un “modo de pensamiento” optimizado para el razonamiento profundo y complejo y un “modo de respuesta rápida” adaptado para respuestas rápidas y concisas.

Un aspecto clave de la serie GLM-4.5 es su notable eficiencia de parámetros junto con un fuerte rendimiento. Zhipu AI afirma que GLM-4.5V ofrece las capacidades más potentes entre los modelos de código abierto de escala comparable. En evaluaciones exhaustivas en doce puntos de referencia distintos, GLM-4.5 obtuvo un impresionante tercer lugar general entre trece modelos de lenguaje grandes, y un notable segundo lugar específicamente para tareas autónomas. Su rendimiento incluye una puntuación del 70.1 por ciento en tareas de agente TAU-Bench, una tasa de éxito del 91.0 por ciento en problemas de matemáticas AIME 24, y un sólido 64.2 por ciento en tareas de ingeniería de software verificadas por SWE-Bench.

Los modelos demuestran una eficiencia excepcional, con GLM-4.5 utilizando solo la mitad de los parámetros de Deepseek-R1 y solo un tercio de Kimi K2, pero igualando o superando consistentemente su rendimiento. Para la navegación web, GLM-4.5 logró un 26.4 por ciento en BrowseComp, superando incluso al significativamente más grande Claude Opus 4, que obtuvo un 18.8 por ciento. Incluso el modelo GLM-4.5-Air, más compacto, rivaliza con Deepseek R1 en tareas de codificación, a pesar de su conteo de parámetros mucho menor.

La base de estos modelos es una sofisticada arquitectura de Mezcla de Expertos (MoE). GLM-4.5 cuenta con un total de 355 mil millones de parámetros, con 32 mil millones activamente comprometidos en un momento dado, mientras que GLM-4.5-Air presenta 106 mil millones de parámetros, con 12 mil millones activos. A diferencia de algunos contemporáneos que favorecen redes más amplias, Zhipu AI ha optado por arquitecturas más profundas con más capas, una elección de diseño basada en su investigación que indica que el aumento de la profundidad mejora significativamente las habilidades de razonamiento. Los modelos se sometieron a un extenso entrenamiento con aproximadamente 23 billones de tokens, progresando a través de múltiples fases, desde datos generales hasta tareas especializadas de código y razonamiento.

Todos los modelos son accesibles a través de la plataforma Z.ai, que ofrece puntos finales de API compatibles con OpenAI. Para la comunidad de desarrolladores, el código es de código abierto en GitHub, y los pesos del modelo están disponibles para descargar desde Hugging Face y Modelscope de Alibaba.

Zhipu AI, fundada en 2019 por profesores de la Universidad de Tsinghua y con sede en Beijing, atrajo por primera vez la atención internacional en 2022 cuando su modelo GLM-130B demostró un rendimiento que superó las ofertas de gigantes de la industria como Google y OpenAI. Hoy, la compañía emplea a más de 800 personas, predominantemente en investigación y desarrollo. Ha atraído una inversión sustancial de destacadas firmas tecnológicas chinas, incluidas Alibaba, Tencent y Xiaomi, junto con varios fondos soberanos y patrocinadores internacionales como Prosperity7 Ventures de Saudi Aramco, lo que culmina en una valoración que supera los 5 mil millones de dólares mientras se prepara para una oferta pública inicial.

Sin embargo, el rápido ascenso de los modelos de IA chinos, incluido el de Zhipu AI, opera dentro de un marco geopolítico único. Todos estos modelos están sujetos a la censura gubernamental, lo que refleja las prioridades y directivas ideológicas de la administración china. Esto contrasta con Estados Unidos, donde el gobierno también está explorando restricciones a los modelos de IA domésticos, aunque impulsado por un conjunto diferente de valores políticos. En ambos casos, estos potentes sistemas de IA corren el riesgo de convertirse en herramientas en guerras culturales más amplias, con ideologías distintas que dan forma a sus capacidades y resultados permitidos, lo que en última instancia conduce a formas similares de control de contenido.