`gpt-oss` de OpenAI Impulsa la IA Híbrida en Azure y Windows
OpenAI ha revelado sus nuevos modelos de peso abierto gpt-oss
, marcando un avance significativo hacia la democratización de la inteligencia artificial avanzada y anunciando una nueva era de IA híbrida. Microsoft está integrando rápidamente estos modelos en sus plataformas Azure AI Foundry y Windows AI Foundry, empoderando a los desarrolladores con una flexibilidad sin precedentes para ejecutar, personalizar y desplegar soluciones de IA desde la vasta nube hasta el borde mismo de los dispositivos de los usuarios.
La serie gpt-oss
representa el primer lanzamiento de un modelo de peso abierto de OpenAI desde GPT-2, un movimiento estratégico anunciado el 5 de agosto de 2025. A diferencia de los modelos de código abierto tradicionales que liberan el código de entrenamiento y los datos completos, los modelos de peso abierto hacen públicos sus parámetros entrenados bajo una licencia permisiva Apache 2.0. Este enfoque permite a los desarrolladores inspeccionar, personalizar y ajustar los modelos, mientras que OpenAI conserva el control sobre su propiedad intelectual fundamental, logrando un equilibrio entre la accesibilidad y la ventaja propietaria.
La familia gpt-oss
consta de dos modelos distintos adaptados a diferentes escenarios de despliegue: gpt-oss-120b
y gpt-oss-20b
. El gpt-oss-120b
más grande cuenta con 117 mil millones de parámetros totales (con 5.1 mil millones de parámetros activos por token) y ofrece un rendimiento casi a la par con el modelo propietario o4-mini
de OpenAI en los puntos de referencia de razonamiento central. Crucialmente, está optimizado para ejecutarse eficientemente en una única GPU de grado empresarial de 80 GB, lo que lo convierte en una potencia para tareas complejas como matemáticas, código y preguntas y respuestas específicas de dominio en entornos de nube.
Para la computación de borde y la inferencia local, OpenAI ofrece gpt-oss-20b
, un modelo más ligero con 21 mil millones de parámetros totales (3.6 mil millones activos). Este modelo logra resultados similares al o3-mini
de OpenAI en puntos de referencia comunes y puede operar en hardware de consumo con tan solo 16 GB de memoria, lo que lo hace ideal para aplicaciones en dispositivos y una rápida iteración local sin infraestructura costosa. Ambos modelos están diseñados para un razonamiento robusto, soportan el uso de herramientas, la llamada a funciones con pocos ejemplos (few-shot function calling) y el razonamiento en cadena de pensamiento (CoT), ofreciendo niveles de esfuerzo de razonamiento ajustables para equilibrar la latencia y el rendimiento. Son modelos solo de texto con una ventana de contexto sustancial de 128K.
La integración de estos modelos por parte de Microsoft en su ecosistema AI Foundry subraya una visión estratégica donde la IA trasciende ser meramente una capa en la pila para convertirse en la base misma de la computación. Azure AI Foundry sirve como la plataforma unificada basada en web para operaciones de IA empresarial, permitiendo a los desarrolladores diseñar, personalizar y gestionar aplicaciones y agentes de IA a escala dentro de un entorno seguro y de grado empresarial. Proporciona acceso a un vasto catálogo de modelos, incluido gpt-oss-120b
, y herramientas para el ajuste fino, la construcción de aplicaciones de IA generativa, copilotos personalizados y agentes sofisticados.
Complementando esta capacidad en la nube está Windows AI Foundry, una evolución de Windows Copilot Runtime, diseñada para facilitar el desarrollo y despliegue de modelos de IA directamente en computadoras personales. Este marco soporta todo el ciclo de vida del desarrollador de IA, desde la selección y optimización del modelo hasta el ajuste fino y el despliegue a través de varios componentes de hardware, incluyendo CPUs, GPUs y Unidades de Procesamiento Neural (NPUs) que se encuentran en los PC Copilot+. La inclusión de “Foundry Local” dentro de Windows AI Foundry ofrece a los desarrolladores acceso rápido a modelos de código abierto preoptimizados y listos para usar como gpt-oss-20b
para experiencias de IA fluidas en el dispositivo.
Este enfoque híbrido de la nube al borde ofrece a los desarrolladores un control y una flexibilidad sin precedentes. Al aprovechar modelos de peso abierto como gpt-oss
, los desarrolladores obtienen total transparencia sobre el comportamiento del modelo, lo que permite una personalización profunda, un ajuste fino con datos propietarios y el despliegue según sus propios términos. Esto se traduce en un mayor control sobre la latencia, el costo y la privacidad de los datos, fomentando la innovación en una gama más amplia de casos de uso, desde despliegues seguros y de alto rendimiento en la nube hasta tareas de agente eficientes y en tiempo real en dispositivos de borde, incluso en entornos con limitaciones de ancho de banda.
El lanzamiento de gpt-oss
y su profunda integración con las AI Foundries de Microsoft señala un momento crucial en el panorama de la IA. Intensifica la competencia con otros proveedores de modelos de peso abierto como Meta, Mistral AI y DeepSeek de China, al tiempo que expande el mercado direccionable para la IA avanzada. Al proporcionar modelos accesibles, personalizables y de alto rendimiento tanto en la nube como en el borde, OpenAI y Microsoft no solo están democratizando la IA; están remodelando cómo se construyen, despliegan y experimentan las aplicaciones inteligentes a nivel global.