Altman responde a críticas de GPT-5: promete control y mejoras
El reciente lanzamiento de GPT-5 por parte de OpenAI ha sido recibido con una acogida mixta, lo que ha llevado al CEO Sam Altman a abordar las preocupaciones de los usuarios y a delinear los planes inmediatos y futuros de la compañía. A pesar de la afirmación de Altman de que GPT-5 es “mejor en la mayoría de los aspectos”, una parte significativa de la base de usuarios sigue dividida, con muchos expresando una preferencia por el comportamiento del modelo GPT-4o anterior. Reconociendo esta retroalimentación inesperada, OpenAI ha restablecido el acceso a GPT-4o, admitiendo que juzgó mal la demanda inicial de su predecesor.
De cara al futuro, Altman indicó que OpenAI tiene la intención de empoderar a los usuarios con un mayor control sobre cómo se comportan sus modelos, reconociendo que ninguna configuración única se adaptará perfectamente a todos. La prioridad inmediata implica estabilizar el lanzamiento en curso y mejorar el rendimiento del sistema. Después de estas soluciones a corto plazo, la compañía tiene como objetivo hacer que el modelo se sienta “más cálido” y más atractivo, con herramientas de personalización integral programadas para un lanzamiento posterior.
El lanzamiento no ha estado exento de obstáculos técnicos. OpenAI confirmó que GPT-5 ya está completamente desplegado en todos los niveles de usuario, incluyendo cuentas Plus, Pro, Team y Free. Sin embargo, el lanzamiento inicial experimentó problemas significativos, particularmente con un conmutador de modelo automático diseñado para seleccionar la variante óptima de GPT-5 para cada solicitud. Este sistema, explicó Altman a través de X, hizo que el modelo pareciera “mucho más tonto” durante ciertos períodos, lo que provocó frustración en los usuarios. La compañía está refinando activamente esta estrategia de enrutamiento, buscando coincidencias más fiables entre tareas y modelos.
Para mitigar las preocupaciones inmediatas y gestionar la creciente demanda —el tráfico de la API se duplicó en 24 horas tras el lanzamiento— OpenAI ha duplicado los límites de uso para los suscriptores Plus y Team durante el fin de semana. Además, a partir de la próxima semana, las versiones mini de GPT-5 y GPT-5 Thinking se activarán automáticamente para los usuarios que alcancen sus límites de mensajes, permaneciendo activas hasta que los límites se restablezcan. Tanto GPT-5 Thinking como GPT-5 Pro ahora se pueden seleccionar directamente dentro de la interfaz principal del modelo. Altman también advirtió sobre una inminente “crisis importante de capacidad” esperada para la próxima semana, asegurando a los usuarios que OpenAI está optimizando su infraestructura y será transparente sobre cualquier compromiso necesario.
Estos ajustes señalan un cambio de la inclinación anterior de OpenAI hacia el enrutamiento de modelos totalmente automatizado. Si bien la automatización simplifica la experiencia para los nuevos usuarios, puede llevar a respuestas menos fiables o al despliegue de un modelo inapropiado, lo que se suma a la imprevisibilidad inherente de las salidas de los modelos de lenguaje grandes. En respuesta, OpenAI planea dejar más claro a los usuarios qué modelo está activo e introducir una opción para activar manualmente el modo “Thinking” a través de la interfaz, aunque aún no se ha proporcionado un cronograma para estas características. Para aquellos que aún deseen utilizar modelos ChatGPT más antiguos, el acceso a versiones “heredadas”, incluido GPT-4o, se puede habilitar a través de la configuración de la plataforma.
La evolución continua de GPT-5 refleja la adaptación en tiempo real de OpenAI a la retroalimentación de los usuarios y las complejas realidades de la implementación de IA avanzada a escala, buscando una experiencia de usuario más estable, personalizable y, en última instancia, más inteligente.