GPT-5 se lanza, OpenAI apunta a una valoración de $500 mil millones y modelos abiertos

Aiwire

La semana pasada marcó un momento crucial para OpenAI, con una tripleta de anuncios significativos que subrayan la agresiva búsqueda de la inteligencia artificial general (AGI) por parte de la compañía, su creciente valoración de mercado y un renovado compromiso con las iniciativas de código abierto. La semana comenzó con el lanzamiento de gpt-oss, una nueva familia de modelos de peso abierto, seguido rápidamente por informes de que la compañía estaba en conversaciones con inversores para una posible venta de acciones que podría valorarla en unos asombrosos 500 mil millones de dólares. Para culminar este período lleno de acontecimientos, OpenAI finalmente presentó GPT-5, su esperado modelo insignia, lo que señala un gran salto en la actual carrera armamentista de modelos de lenguaje grandes.

GPT-5, la primera gran actualización desde el debut de GPT-4 en marzo de 2023, fue presentado por el CEO Sam Altman durante un lanzamiento transmitido en vivo, quien lo aclamó como “un paso significativo en nuestro camino hacia la AGI”. El nuevo modelo ya está disponible para usuarios gratuitos, Plus y Team de ChatGPT, con implementaciones para Enterprise y Education programadas para la semana siguiente. Los desarrolladores también obtendrán acceso a GPT-5 a través de tres niveles de API distintos: GPT-5, GPT-5 Mini y GPT-5 Nano. Un cambio arquitectónico clave en GPT-5 implica un rediseño de la lógica de enrutamiento de ChatGPT. Anteriormente, el sistema dirigía las consultas rutinarias a modelos más rápidos y las tareas complejas a variantes de razonamiento más lentas y deliberadas. Esta “bifurcación” ha sido eliminada con GPT-5. Como explicó el director de investigación de OpenAI, Mark Chen, el modelo ahora emplea un controlador interno para determinar dinámicamente la duración óptima del “pensamiento”, con el objetivo de entregar respuestas precisas sin latencia innecesaria para solicitudes más simples.

Los resultados de los benchmarks presentados en el lanzamiento mostraron las impresionantes capacidades de GPT-5. El modelo logró una puntuación del 74.9% en SWE-Bench, una medida de su competencia en la corrección de errores dentro de proyectos de codificación Python, y una puntuación del 88% en la prueba de codificación Aider Polyglot. También estableció un nuevo récord en la suite de razonamiento visual multimodal MMMU y superó a GPT-4o por un margen no revelado en el examen de matemáticas de secundaria AIME de 2025. El personal de OpenAI reconoció que las evaluaciones formales no pueden abarcar todos los escenarios del mundo real, pero enfatizó que estas puntuaciones más altas se alinean con las ganancias internas observadas en fiabilidad. Un enfoque significativo durante el entrenamiento de GPT-5 fue la reducción de errores fácticos y comportamientos engañosos. La líder de seguridad Sachi Desai señaló que el modelo exhibe menos imprecisiones fácticas en las pruebas internas y emplea un método de “finalización segura” en lugar de una regla rígida de cumplimiento o rechazo. Abordando el engaño, Desai destacó que GPT-5 es “significativamente menos engañoso” que sus predecesores, particularmente en tareas ambiguas o insuficientemente especificadas. Para solicitudes potencialmente peligrosas, como instrucciones para fuegos artificiales pirogénicos, el modelo ahora ofrece orientación parcial, dirige a los usuarios a manuales de seguridad y explica transparentemente cualquier negativa, con el objetivo de proporcionar un contexto útil sin facilitar el daño.

Más allá de las mejoras del modelo central, OpenAI está implementando actualizaciones de productos y API construidas sobre GPT-5. Estas incluyen un modo de voz más natural con contexto de video en vivo para usuarios gratuitos, opciones de personalización mejoradas y capacidades de memoria que pueden conectarse a servicios como Gmail y Google Calendar. Un nuevo modo de estudio ofrece aprendizaje paso a paso. Para los desarrolladores, GPT-5 introduce llamadas a herramientas personalizadas que aceptan texto sin formato, preámbulos opcionales antes del uso de herramientas, control de verbosidad y una configuración de razonamiento mínima para priorizar la velocidad sobre la profundidad. La compañía afirma que GPT-5 alcanza un notable 97% en el benchmark Tau-Squared para tareas de múltiples herramientas, un aumento sustancial del 49% de solo dos meses antes. Si bien el lanzamiento se confirmó para varios niveles de usuarios, la implementación de GPT-5 es gradual para garantizar la estabilidad, lo que significa que algunos usuarios pueden experimentar una disponibilidad retrasada.

Junto con el lanzamiento de GPT-5, surgieron informes sobre la trayectoria financiera de OpenAI. Bloomberg indicó que la compañía está en discusiones preliminares para una venta secundaria de acciones de empleados, lo que podría valorar a OpenAI en aproximadamente 500 mil millones de dólares. Los inversores existentes, incluido Thrive Capital, están explorando su participación en estas compras. Si se finaliza, este acuerdo elevaría significativamente la valoración en papel de la compañía de sus anteriores 300 mil millones de dólares, establecidos durante una ronda de financiación de 40 mil millones de dólares liderada por SoftBank. El informe también señaló que OpenAI aseguró recientemente 8.3 mil millones de dólares adicionales como una segunda parte de esa financiación sobresuscrita. Dicha venta secundaria proporcionaría liquidez crucial para los empleados y podría ayudar en la retención de talento en medio de la intensa competencia de rivales como Meta y Anthropic. Además, Bloomberg informó que OpenAI y Microsoft están renegociando su intrincada relación, incluida la participación accionaria de Microsoft y el acceso a la tecnología fundamental de OpenAI, antes de la expiración de su acuerdo actual en 2030. Esta asociación se ha caracterizado como una compleja interacción de rivalidad, alineación estratégica e interdependencia. El modelo de beneficio híbrido único de OpenAI, que presenta una matriz sin fines de lucro que supervisa una empresa operativa con fines de lucro, continúa evolucionando, con discusiones en curso sobre cambios estructurales, incluida la posibilidad de que el brazo operativo se convierta en una corporación de beneficio público, manteniendo la supervisión sin fines de lucro. Este debate estratégico se desarrolla en un contexto de rápido crecimiento de usuarios, con ChatGPT proyectado para alcanzar los 700 millones de usuarios activos semanales esta semana, frente a los 500 millones en marzo.

En un movimiento que se alinea con su nombre fundacional, OpenAI también lanzó gpt-oss, una nueva familia de modelos de peso abierto. Disponibles en versiones de 20 mil millones y 120 mil millones de parámetros en Hugging Face y GitHub bajo la licencia Apache 2.0, estos modelos representan un paso significativo hacia una accesibilidad más amplia. OpenAI declaró que los modelos gpt-oss “superan a los modelos abiertos de tamaño similar en tareas de razonamiento, demuestran sólidas capacidades de uso de herramientas y están optimizados para una implementación eficiente en hardware de consumo”. Fueron entrenados utilizando una combinación de aprendizaje por refuerzo y técnicas informadas por los modelos internos más avanzados de OpenAI. Ambos modelos nuevos utilizan una arquitectura Transformer con un enfoque de Mezcla de Expertos (MoE) para reducir el número de parámetros activos necesarios para procesar la entrada, mejorando la eficiencia. El modelo gpt-oss-120b, que requiere una GPU de 80GB, está diseñado para centros de datos y computadoras de escritorio de alta gama, logrando una paridad cercana con el o4-mini de OpenAI en los benchmarks de razonamiento central. El gpt-oss-20b más pequeño, que solo necesita 16GB de memoria, puede ejecutarse en la mayoría de las computadoras de escritorio y portátiles de consumo, lo que lo hace adecuado para casos de uso en el dispositivo e inferencia local, ofreciendo resultados comparables al o3-mini de OpenAI. La naturaleza de peso abierto de gpt-oss proporciona a los investigadores una flexibilidad sin precedentes, permitiéndoles ejecutar modelos en su propio hardware, realizar experimentos reproducibles, inspeccionar el funcionamiento interno, afinar modelos en datos específicos del dominio y comparar resultados con otros laboratorios mientras se garantiza la privacidad de los datos y se reducen los costos. Esta transparencia, incluida la capacidad de exponer la cadena de pensamiento completa del modelo y ajustar la profundidad del razonamiento, tiene como objetivo acelerar la investigación reproducible en campos como el diseño molecular y la modelización climática. OpenAI considera el lanzamiento de gpt-oss como un paso vital hacia un “ecosistema de modelos abiertos saludable”, complementando sus modelos alojados al ofrecer a los desarrolladores más opciones para la investigación y el desarrollo, con el objetivo final de hacer que la IA sea “ampliamente accesible y beneficiosa para todos”.