OpenAI lanza modelos GPT-OSS con licencia Apache, desafiando a sus rivales

Computerworld

OpenAI ha presentado sus primeros modelos de lenguaje de peso abierto desde GPT-2, marcando un cambio estratégico fundamental destinado a acelerar la adopción empresarial de sus tecnologías de IA. El lanzamiento de gpt-oss-120b y gpt-oss-20b bajo la permisiva licencia Apache 2.0 señala una nueva era para OpenAI, enfatizando la implementación flexible, la reducción de costos operativos y una mayor accesibilidad para las empresas.

Estos nuevos modelos representan un movimiento calculado por OpenAI para equilibrar la accesibilidad con su ventaja propietaria. Si bien los pesos del modelo están abiertamente disponibles para que las organizaciones los ejecuten y personalicen localmente, OpenAI mantiene el control sobre los datos de entrenamiento originales y los mecanismos de enrutamiento. Este enfoque de “código semiabierto” busca atraer a desarrolladores y empresas sin renunciar por completo a la propiedad intelectual central.

Los modelos gpt-oss-120b y gpt-oss-20b están diseñados para la eficiencia y el rendimiento, incluso en hardware de consumo. El gpt-oss-120b, más grande, supuestamente logra una paridad casi total con el o4-mini de OpenAI en los puntos de referencia de razonamiento, requiriendo solo una GPU de 80 GB. El gpt-oss-20b, más compacto, iguala el rendimiento del o3-mini y puede operar en dispositivos de borde con tan solo 16 GB de memoria, democratizando las capacidades avanzadas de IA. Ambos modelos admiten extensas ventanas de contexto de 128.000 tokens y están cuantizados nativamente en formato MXFP4 para una implementación optimizada.

Una clave de su eficiencia es la arquitectura Mixture-of-Experts (MoE), que optimiza las demandas computacionales activando solo un subconjunto de parámetros para cualquier entrada dada. Por ejemplo, gpt-oss-120b activa 5.100 millones de parámetros de sus 117.000 millones totales, mientras que gpt-oss-20b activa 3.600 millones de su base de 21.000 millones. Esta activación selectiva reduce significativamente los costos computacionales durante la inferencia, haciendo factible construir modelos potentes que también sean eficientes en recursos.

La licencia Apache 2.0 es un componente crítico de este lanzamiento, ya que permite el uso comercial, la modificación y la distribución sin restricciones de los modelos. Esta licencia permisiva también proporciona concesiones de patentes, ofreciendo a los usuarios protección contra reclamaciones por infracción de patentes, lo cual es muy valioso en el panorama de la IA en rápida evolución. Se espera que este enfoque de licencia acelere la adopción de los modelos de OpenAI tanto para la investigación como para las aplicaciones comerciales, como señaló Neil Shah, vicepresidente de investigación y socio de Counterpoint Research.

Para los equipos de TI empresariales, este cambio estratégico se traduce en requisitos de recursos más predecibles y un ahorro de costos potencialmente significativo en comparación con las implementaciones de modelos propietarios tradicionales. Si bien el autoalojamiento requiere inversiones iniciales en infraestructura y costos operativos continuos, elimina las tarifas de API por token que pueden acumularse rápidamente con un uso de alto volumen. Los expertos de la industria sugieren que el costo total de propiedad (TCO) favorecerá a las empresas con necesidades de alto volumen o de misión crítica, donde los ahorros del autoalojamiento eventualmente superan los gastos iniciales y operativos. Los primeros socios empresariales, incluidos AI Sweden, Orange y Snowflake, ya están probando aplicaciones en el mundo real, desde el alojamiento local para una mayor seguridad de los datos hasta el ajuste fino en conjuntos de datos especializados.

Este movimiento también tiene implicaciones significativas para la relación de OpenAI con Microsoft, su principal inversor y socio en la nube. Al ofrecer modelos de peso abierto, OpenAI se desvincula inteligentemente de una dependencia exclusiva de Microsoft Azure, lo que permite a los desarrolladores alojar estos modelos en nubes rivales como AWS o Google, o incluso en la nube de OpenAI-Oracle. Esta flexibilidad estratégica mejora el poder de negociación de las empresas frente a otros proveedores de IA y modelos de IA como servicio. A pesar de esto, Microsoft sigue integrando versiones de gpt-oss-20b optimizadas para GPU en dispositivos Windows a través de ONNX Runtime, lo que permite la inferencia local a través de Foundry Local y el AI Toolkit para VS Code.

OpenAI afirma que los modelos se sometieron a una capacitación y evaluaciones de seguridad exhaustivas, incluida la prueba de una versión ajustada de forma adversaria bajo su Marco de Preparación, con metodologías revisadas por expertos externos. Esto aborda las preocupaciones empresariales comunes con respecto a la seguridad y la implementación responsable de la IA de código abierto. Los modelos han demostrado un rendimiento competitivo en los puntos de referencia, con gpt-oss-120b logrando un 79,8% de Pass@1 en AIME 2024 y un 97,3% en MATH-500, junto con sólidas capacidades de codificación y uso de herramientas, cruciales para la automatización empresarial.

Este cambio reconoce la creciente demanda de flexibilidad de implementación en la adopción de la IA empresarial, particularmente para organizaciones en industrias reguladas que priorizan la soberanía de los datos y aquellas que buscan evitar el bloqueo de proveedores. Si bien las empresas deben gestionar la complejidad operativa, OpenAI está trabajando con proveedores de hardware como Nvidia, AMD, Cerebras y Groq para garantizar un rendimiento optimizado en diversos sistemas. En última instancia, la licencia Apache 2.0 elimina las barreras tradicionales a la personalización, empoderando a las organizaciones para desarrollar aplicaciones de IA propietarias sin tarifas de licencia recurrentes, lo que lo convierte en una victoria significativa para las empresas en el panorama de la IA en evolución.