OpenAI Dévoile LLMs Open-Weight : gpt-oss-120B (Portable) & gpt-oss-20B (Téléphone)

Marktechpost

OpenAI ha anunciado el lanzamiento de dos nuevos modelos de lenguaje de peso abierto, gpt-oss-120B y gpt-oss-20B, lo que marca un cambio significativo en el enfoque de la compañía hacia la distribución de la IA. Este movimiento permite a cualquier persona descargar, inspeccionar, afinar y ejecutar estos modelos en su propio hardware, fomentando una nueva era de transparencia, personalización y potencia computacional para investigadores, desarrolladores y entusiastas.

Una Nueva Dirección para OpenAI

Históricamente, OpenAI ha sido conocida por desarrollar modelos de IA altamente capaces, manteniendo en gran medida su tecnología subyacente como propietaria. El lanzamiento de gpt-oss-120B y gpt-oss-20B, distribuidos bajo la permisiva licencia Apache 2.0, señala un cambio notable. Este enfoque de código abierto permite a los usuarios implementar modelos de grado OpenAI localmente, desde entornos empresariales hasta dispositivos personales, sin depender únicamente de las API en la nube.

Presentación de los Modelos: Capacidades y Accesibilidad

gpt-oss-120B:
Este modelo más grande cuenta con 117 mil millones de parámetros, utilizando una arquitectura de Mezcla de Expertos (MoE) que activa aproximadamente 5.1 mil millones de parámetros por token para mayor eficiencia. Se informa que su rendimiento es comparable o incluso superior al o4-mini de OpenAI en pruebas de referencia del mundo real. El modelo está diseñado para ejecutarse en una única GPU de alta gama, como una Nvidia H100 o una tarjeta de clase 80 GB, eliminando la necesidad de grandes granjas de servidores.

Sus capacidades clave incluyen el razonamiento en cadena de pensamiento y el razonamiento agente, lo que lo hace adecuado para tareas como la automatización de la investigación, la redacción técnica y la generación de código. Los usuarios pueden configurar su “esfuerzo de razonamiento” (bajo, medio, alto) para equilibrar la potencia y el consumo de recursos. Además, gpt-oss-120B cuenta con una extensa ventana de contexto de hasta 128.000 tokens, lo que le permite procesar grandes volúmenes de texto, similar a libros enteros. También está diseñado para un fácil ajuste fino e inferencia local, ofreciendo privacidad de datos completa y control de implementación sin límites de velocidad.

gpt-oss-20B:
Con 21 mil millones de parámetros (y 3.6 mil millones de parámetros activos por token, también aprovechando MoE), gpt-oss-20B ofrece un rendimiento robusto para un modelo más pequeño, posicionándose entre o3-mini y o4-mini en tareas de razonamiento. Una característica destacada es su capacidad para ejecutarse en hardware de consumo, incluyendo laptops con solo 16 GB de RAM, lo que lo convierte en uno de los modelos de razonamiento de peso abierto más potentes capaces de ejecutarse en un teléfono o PC local.

Este modelo está específicamente optimizado para IA en el dispositivo de baja latencia y privada, compatible con teléfonos inteligentes (incluido Qualcomm Snapdragon), dispositivos de borde y escenarios que requieren inferencia local sin dependencia de la nube. Al igual que su contraparte más grande, gpt-oss-20B posee capacidades de agente, lo que le permite usar API, generar salidas estructuradas y ejecutar código Python bajo demanda.

Fundamentos Técnicos: Eficiencia y Portabilidad

Ambos modelos gpt-oss aprovechan una arquitectura de Mezcla de Expertos (MoE). Este diseño activa solo unas pocas subredes de “expertos” seleccionadas para cada token procesado, lo que permite a los modelos tener un gran número total de parámetros mientras mantienen un uso moderado de memoria y velocidades de inferencia rápidas. Esto los hace altamente eficientes para el hardware moderno de consumo y empresarial.

Además, los modelos incorporan cuantificación nativa MXFP4, una técnica que reduce significativamente su huella de memoria sin comprometer la precisión. Esta optimización es crucial para que gpt-oss-120B quepa en una sola GPU avanzada y para que gpt-oss-20B se ejecute cómodamente en laptops, computadoras de escritorio e incluso dispositivos móviles.

Impacto y Aplicaciones en el Mundo Real

El lanzamiento de estos modelos de peso abierto tiene amplias implicaciones en varios sectores:

  • Para Empresas: La capacidad de implementar modelos en las instalaciones garantiza una mayor privacidad de los datos, seguridad y cumplimiento, particularmente para industrias sensibles como las finanzas, la atención médica y el sector legal. Esto elimina la dependencia de la IA de nube de “caja negra”, lo que permite a las organizaciones mantener un control total sobre sus flujos de trabajo de LLM.

  • Para Desarrolladores: Proporciona una libertad sin precedentes para experimentar, afinar y ampliar las capacidades de la IA. Los desarrolladores pueden operar sin límites de API o facturas SaaS recurrentes, obteniendo un control completo sobre la latencia y el costo.

  • Para la Comunidad: Los modelos están fácilmente disponibles en plataformas como Hugging Face y Ollama, facilitando la descarga e implementación rápidas, acelerando la innovación impulsada por la comunidad.

Estableciendo Nuevos Puntos de Referencia para Modelos de Peso Abierto

gpt-oss-120B se destaca como el primer modelo de peso abierto disponible libremente que logra niveles de rendimiento comparables a los modelos comerciales de primer nivel, como el o4-mini de OpenAI. Se espera que la variante gpt-oss-20B reduzca la brecha de rendimiento para la IA en el dispositivo, ampliando los límites de lo que es posible con los Modelos de Lenguaje Grandes locales y fomentando una innovación significativa en el campo.

El lanzamiento de GPT-OSS de OpenAI significa un compromiso con la apertura de capacidades avanzadas de IA. Al hacer que el razonamiento de vanguardia, el uso de herramientas y las funcionalidades de agente sean accesibles para su inspección e implementación, OpenAI invita a una comunidad más amplia de creadores, investigadores y empresas no solo a usar estos modelos, sino a construir activamente sobre ellos, iterar y evolucionarlos.

OpenAI Dévoile LLMs Open-Weight : gpt-oss-120B (Portable) & gpt-oss-20B (Téléphone) - OmegaNext Noticias IA