Modelos de Peso Abierto de OpenAI: Revelado un Simple Truco de Prompting
OpenAI ha vuelto a remodelar el panorama de la inteligencia artificial con el debut de sus nuevos modelos de peso abierto, gpt-oss-120b y gpt-oss-20b, marcando la primera vez que la compañía lanza modelos de este tipo desde GPT-2 en 2019. Este movimiento significativo, anunciado el 5 de agosto de 2025, no solo democratiza el acceso a capacidades avanzadas de IA, sino que también introduce un “truco de prompting muy simple” que promete revolucionar la forma en que los desarrolladores interactúan con estos potentes sistemas.
Los modelos, disponibles bajo la permisiva licencia Apache 2.0, ofrecen una flexibilidad sin precedentes para desarrolladores y organizaciones, permitiendo la experimentación, personalización y despliegue comercial gratuitos sin restricciones de copyleft o preocupaciones de patentes. La serie gpt-oss comprende dos modelos distintos: el más robusto gpt-oss-120b, que cuenta con 117 mil millones de parámetros (con 5.1 mil millones activos), y el más compacto gpt-oss-20b, que presenta 21 mil millones de parámetros (con 3.6 mil millones activos). Estos modelos están diseñados para tareas de razonamiento sofisticadas y de agencia, incluyendo navegación web, llamadas a funciones y ejecución de código Python, lo que los convierte en herramientas versátiles para una amplia gama de aplicaciones.
Lo que realmente distingue a estos nuevos modelos es su notable eficiencia y rendimiento. OpenAI afirma que gpt-oss-120b logra una paridad casi total con su modelo propietario o4-mini en los puntos de referencia de razonamiento central, mientras que gpt-oss-20b ofrece un rendimiento comparable a o3-mini. Fundamentalmente, el modelo más grande puede operar eficientemente en una sola GPU de 80 GB, y la versión más pequeña está diseñada para ejecutarse en dispositivos de borde con tan solo 16 GB de memoria, incluyendo laptops Mac estándar. Esta accesibilidad reduce la barrera de entrada para organizaciones más pequeñas, mercados emergentes y sectores con recursos limitados, fomentando una innovación más amplia en el desarrollo de la IA.
Sumándose a su atractivo, Grant Harvey de TechnologyAdvice ha destacado una característica particularmente intuitiva dentro de estos modelos gpt-oss: un “esfuerzo de razonamiento” configurable. Simplemente añadiendo “Reasoning: high” a un prompt, los usuarios pueden activar un “modo de pensamiento profundo”, obligando al modelo a involucrarse en un proceso de resolución de problemas más exhaustivo y paso a paso. Por el contrario, “Reasoning: low” prioriza la velocidad para consultas menos complejas, con “Reasoning: medium” sirviendo como el valor predeterminado equilibrado. Esta capacidad se mejora aún más por la habilidad de los modelos para separar las salidas en canales de “análisis” (revelando la cadena de pensamiento bruta) y “final” (proporcionando la respuesta pulida), ofreciendo una transparencia sin precedentes en el proceso cognitivo de la IA. Esto no es simplemente un “hack”, sino una elección de diseño incorporada que permite a los desarrolladores ajustar el comportamiento del modelo para necesidades específicas, sacrificando la latencia por un análisis más profundo según sea necesario.
El lanzamiento de los modelos gpt-oss significa la adopción estratégica por parte de OpenAI del paradigma de peso abierto, difuminando las líneas entre los servicios propietarios basados en la nube y la IA en el dispositivo. Este enfoque asegura que cualquier cosa construida para los modelos basados en API de OpenAI pueda transitar sin problemas a estos nuevos modelos locales, integrándolos directamente en los ecosistemas de desarrolladores existentes y haciendo que la IA avanzada sea más ubicua. Disponibles en las principales plataformas como Hugging Face, AWS y Databricks, los modelos gpt-oss están listos para catalizar una nueva ola de aplicaciones de IA, empujando los límites de lo posible con modelos de lenguaje personalizables y de alto rendimiento.