OpenAI lanza GPT-OSS: Sus primeros LLM de código abierto desde GPT-2
OpenAI ha lanzado GPT-OSS, su primer conjunto de modelos de lenguaje de pesos abiertos desde el lanzamiento de GPT-2, marcando un cambio significativo en su estrategia con respecto a la accesibilidad de los modelos. Los nuevos modelos, disponibles bajo la permisiva licencia Apache 2.0, ofrecen a los desarrolladores una amplia libertad para aplicaciones comerciales y no comerciales sin cláusulas restrictivas.
La serie GPT-OSS se estrena con dos modelos distintos: un modelo de razonamiento de 120 mil millones de parámetros y una versión más compacta de 20 mil millones de parámetros. OpenAI afirma que el modelo más grande ofrece un rendimiento comparable a su modelo propietario o4-mini, mientras que la variante más pequeña logra resultados similares a los de o3-mini.
Estos modelos fueron entrenados principalmente en un vasto corpus de texto en inglés, con un enfoque particular en temas STEM, codificación y conocimiento general. A diferencia de algunos de los modelos más grandes y avanzados de OpenAI, como GPT-4o, GPT-OSS no incorpora capacidades de visión. Durante el post-entrenamiento, OpenAI aplicó técnicas de aprendizaje por refuerzo, similares a las utilizadas para su modelo o4-mini, para dotar a GPT-OSS de habilidades de razonamiento en cadena de pensamiento. Los usuarios pueden ajustar el esfuerzo de razonamiento de los modelos —bajo, medio o alto— a través de los prompts del sistema.
Ambos modelos GPT-OSS aprovechan una arquitectura de Mezcla de Expertos (MoE), una elección de diseño que mejora la eficiencia. En el modelo de 120 mil millones de parámetros, hay 128 subredes especializadas, o "expertos", disponibles, con cuatro (que suman un total de 5.1 mil millones de parámetros) generando activamente cada token de salida. La versión de 20 mil millones de parámetros es un diseño simplificado con 32 expertos y 3.6 mil millones de parámetros activos. Esta estructura MoE permite una generación de tokens más rápida en comparación con modelos densos de tamaño equivalente, siempre que el hardware pueda soportarlos.
En cuanto a los requisitos de hardware, OpenAI ha optimizado estos modelos para un funcionamiento eficiente. El modelo de 120 mil millones de parámetros puede ejecutarse en una única GPU H100 de 80 GB, mientras que la versión de 20 mil millones de parámetros está diseñada para caber en solo 16 GB de VRAM. Las pruebas preliminares del modelo GPT-OSS-20B en una GPU RTX 6000 Ada demostraron tasas de generación de tokens superiores a 125 tokens por segundo con un tamaño de lote de uno.
Los modelos cuentan con una ventana de contexto nativa de 128.000 tokens. Aunque competitiva hace un año, esta capacidad ahora ha sido superada por algunos rivales, como la familia Qwen3 de Alibaba, que ofrece una ventana de contexto de 256.000 tokens, y Llama 4 de Meta, que soporta hasta 10 millones de tokens.
El lanzamiento de GPT-OSS se produce tras múltiples retrasos, que el CEO de OpenAI, Sam Altman, atribuyó a exhaustivas evaluaciones de seguridad. En una reciente publicación de blog, OpenAI detalló las medidas de seguridad implementadas, incluyendo el filtrado de datos dañinos relacionados con la investigación y el desarrollo químico, biológico, radiológico o nuclear (CBRN). Los modelos también han sido diseñados para resistir prompts inseguros e intentos de inyección de prompts. OpenAI reconoció el riesgo de que adversarios ajusten modelos de pesos abiertos con fines maliciosos, pero expresó confianza en sus salvaguardias. Para probar aún más estas medidas, la compañía ha lanzado un desafío de "red teaming", ofreciendo un premio de medio millón de dólares a cualquiera que pueda identificar nuevas vulnerabilidades de seguridad.
GPT-OSS está actualmente disponible en varios repositorios de modelos, incluyendo Hugging Face, y es compatible con una amplia gama de frameworks de inferencia, como Hugging Face Transformers, PyTorch, Triton, vLLM, Ollama y LM Studio.
Mirando hacia el futuro, Sam Altman insinuó nuevos desarrollos, declarando en X que se espera una "gran actualización" a finales de esta semana, lo que alimenta la especulación sobre un posible lanzamiento de GPT-5.