OpenAI lanza modelos GPT-OSS de peso abierto: un giro estratégico en la IA
Incluso mientras el revuelo por el ambicioso lanzamiento de GPT-5 de OpenAI se asienta, otro anuncio significativo de la compañía esta semana está atrayendo una considerable atención: el lanzamiento de dos nuevos modelos de peso abierto, gpt-oss-120b y gpt-oss-20b. Este movimiento señala un cambio notable para OpenAI, que durante los últimos seis años se ha centrado principalmente en el desarrollo de modelos propietarios. Socios como Databricks, Microsoft y AWS están dando una entusiasta bienvenida a lo que consideran el regreso de OpenAI a un enfoque más abierto en el ecosistema de la IA.
Estos nuevos modelos de lenguaje, gpt-oss-120b y gpt-oss-20b, cuentan con aproximadamente 120 mil millones y 20 mil millones de parámetros, respectivamente. Si bien estas cifras son sustanciales, posicionan a los modelos como relativamente compactos en comparación con los modelos de “billones de parámetros” más grandes que actualmente dominan el mercado. Ambos modelos gpt-oss están diseñados como motores de razonamiento, aprovechando una arquitectura de “mezcla de expertos” (MoE), lo que les permite procesar información de manera más eficiente. En particular, el gpt-oss-120b más grande puede operar eficazmente en una GPU estándar de centro de datos, mientras que su hermano menor, gpt-oss-20b, es capaz de ejecutarse en una computadora de escritorio típica con solo 16 GB de memoria, lo que lo hace adecuado para dispositivos de borde.
OpenAI afirma que el modelo gpt-oss-120b logra una “casi paridad” con su establecido modelo o4-mini en los puntos de referencia de razonamiento principales, todo mientras se ejecuta eficientemente en una sola GPU de 80 GB. La compañía destaca además el rendimiento comparable de gpt-oss-20b con o3-mini de OpenAI en los puntos de referencia comunes, enfatizando su idoneidad para casos de uso en dispositivos, inferencia local o desarrollo rápido sin requerir una infraestructura costosa. Cloudflare, un socio de lanzamiento de OpenAI, señala que estos modelos están optimizados de forma nativa para la cuantificación FP4, una técnica que reduce significativamente su huella de memoria GPU en comparación con un modelo de 120 mil millones de parámetros con precisión FP16. Esto, combinado con la arquitectura MoE, permite que los nuevos modelos se ejecuten más rápido y de manera más eficiente que los modelos densos más tradicionales de tamaño similar.
Los modelos gpt-oss ofrecen una ventana de contexto de 128K y proporcionan niveles de razonamiento ajustables: bajo, medio o alto. Actualmente solo están en inglés y están diseñados exclusivamente para aplicaciones basadas en texto, lo que los distingue de los modelos multimodales de peso abierto como Llama de Meta. Sin embargo, su distribución bajo una licencia Apache 2.0 como modelos de peso abierto significa que los clientes obtienen una flexibilidad sin precedentes: pueden implementar y ejecutar estos modelos donde elijan y, fundamentalmente, ajustarlos con sus propios datos para lograr un rendimiento superior adaptado a necesidades específicas.
Databricks, un socio de lanzamiento clave, ya ha puesto a disposición gpt-oss-120b y gpt-oss-20b en su mercado de IA. Hanlin Tang, CTO de Redes Neuronales de Databricks, expresó entusiasmo por el giro de OpenAI, afirmando: “Hemos adoptado el código abierto y los modelos abiertos durante mucho tiempo, desde los modelos Llama de Meta hasta algunos de nuestros propios modelos en el pasado, y es genial ver a OpenAI unirse al mundo de los modelos abiertos”. Tang enfatizó la mayor transparencia y el profundo potencial de personalización que conlleva el acceso completo a los pesos de un modelo. Si bien las pruebas iniciales están en curso, Tang señaló que los primeros indicios son “bastante prometedores”, y la arquitectura MoE los hace particularmente adecuados para aplicaciones de baja latencia como agentes de IA, chatbots y copilotos, que son actualmente algunos de los tipos de aplicaciones de IA más populares. Aunque solo son de texto, Tang anticipa su sólido rendimiento en cargas de trabajo por lotes como la resumir texto.
Microsoft también expresó un fuerte apoyo al abrazo de OpenAI a los modelos de peso abierto, declarando que “los modelos abiertos han pasado de los márgenes a la corriente principal”. La compañía subrayó las ventajas para los desarrolladores, explicando que los pesos abiertos permiten a los equipos ajustar los modelos rápidamente utilizando métodos eficientes como LoRA, QLoRA y PEFT, integrar datos propietarios e implementar nuevos puntos de control en horas en lugar de semanas. Microsoft destacó además la capacidad de destilar, cuantificar o recortar la longitud del contexto de los modelos gpt-oss, aplicar “escasez estructurada” para requisitos de memoria estrictos en GPU de borde o computadoras portátiles de alta gama, e inyectar “adaptadores de dominio” para facilitar las auditorías de seguridad. En esencia, Microsoft ve estos modelos abiertos no solo como alternativas equivalentes en características, sino como “sustratos programables”, herramientas fundamentales que pueden personalizarse profundamente.
AWS también respalda la iniciativa de OpenAI, con Atul Deo, director de producto de AWS, afirmando que “los modelos de peso abierto son un área importante de innovación en el futuro desarrollo de la tecnología de IA generativa, por lo que hemos invertido en hacer de AWS el mejor lugar para ejecutarlos, incluidos los que se lanzan hoy desde OpenAI”.
La tendencia más amplia entre los adoptantes de IA es un enfoque estratégico de mezcla y combinación. Si bien los grandes modelos de lenguaje propietarios como GPT-5 sobresalen en la generalización debido a sus extensos datos de entrenamiento, a menudo conllevan costos más altos y carecen de la flexibilidad para una personalización profunda. Los modelos de peso abierto más pequeños, por el contrario, pueden no generalizar tan ampliamente, pero su apertura permite el ajuste fino, la flexibilidad de implementación (ofreciendo beneficios de privacidad) y, en general, una operación más rentable. La elección, como explicó Hanlin Tang, se reduce a ajustar el modelo de IA adecuado para el caso de uso específico del cliente. Las empresas están tomando cada vez más decisiones diversas, equilibrando la búsqueda de “súper alta calidad” de los modelos propietarios con la rentabilidad y la personalización profunda que ofrecen las alternativas de peso abierto.