GPT-5, más inteligente tras la corrección de errores de OpenAI en el conmutador de modelos
OpenAI está abordando activamente los desafíos de implementación iniciales con su último modelo de lenguaje grande, GPT-5, con el objetivo de ofrecer mejoras inmediatas en la capacidad, calidad y la interfaz de usuario del modelo. El CEO de la compañía, Sam Altman, confirmó recientemente a través de X que los suscriptores de ChatGPT Plus pronto verán duplicados sus límites de mensajes de GPT-5 una vez que se complete el despliegue en curso. Esta medida forma parte de un esfuerzo más amplio para refinar la experiencia del usuario, al tiempo que permite a los usuarios Plus seguir accediendo al modelo GPT-4o anterior, con OpenAI monitoreando su uso para informar futuras decisiones de disponibilidad.
Actualmente, los usuarios de ChatGPT Plus tienen un límite de 100 mensajes cada tres horas, y el sistema cambia automáticamente a un modelo más pequeño si se alcanza este límite. La variante especializada GPT-5-Thinking, diseñada para tareas más complejas, tiene su propio límite semanal de 200 mensajes, aunque el cambio entre el GPT-5 estándar y GPT-5-Thinking no contribuye a este total semanal. El anuncio de Altman sugiere que los usuarios deberían percibir una mejora inmediata en el rendimiento, y se espera que GPT-5 “parezca más inteligente a partir de hoy”. Atribuyó las inconsistencias anteriores, que llevaron al modelo a parecer ocasionalmente “mucho más tonto”, a problemas iniciales con el conmutador automático de modelos principal, el sistema responsable de seleccionar la variante de GPT-5 adecuada para cada solicitud del usuario.
El despliegue completo para todos los usuarios ha demostrado ser más intrincado y lento de lo que OpenAI anticipó inicialmente. Altman lo caracterizó como un “cambio masivo a gran escala”, destacando que el tráfico de la API se había duplicado aproximadamente en las 24 horas anteriores. Aunque se esperaba cierta fricción operativa dada la implementación simultánea de numerosos cambios, Altman admitió que la fase de lanzamiento fue “un poco más accidentada” de lo que la compañía había esperado.
Más allá de las soluciones inmediatas, OpenAI también está refinando su estrategia subyacente de enrutamiento de modelos, que determina cómo se asignan las solicitudes a modelos específicos. El objetivo es asegurar una coincidencia más confiable entre la solicitud del usuario y el modelo más adecuado para manejarla. Altman también indicó planes futuros para mejorar la transparencia, haciendo más claro para los usuarios qué modelo está activo actualmente. Además, los usuarios podrían eventualmente obtener la capacidad de activar manualmente el modo “Thinking” directamente a través de la interfaz, aunque no se proporcionó un cronograma para estas características.
Estos ajustes estratégicos señalan un posible alejamiento del énfasis anterior de OpenAI en el enrutamiento de modelos totalmente automático. Si bien el enrutamiento automatizado simplifica la experiencia para los nuevos usuarios que prefieren no seleccionar modelos manualmente, puede llevar inadvertidamente a respuestas menos confiables o al despliegue de un modelo inadecuado para una tarea determinada, añadiendo otra capa de imprevisibilidad a los ya complejos resultados de los grandes modelos de lenguaje. Para los usuarios que prefieren un mayor control, OpenAI ha mantenido una opción para habilitar el acceso a modelos “legados” a través de la configuración de ChatGPT, que luego aparecen bajo “Otros modelos”. Sin embargo, las variantes más avanzadas GPT-5 “Thinking” y “Pro” siguen siendo exclusivamente accesibles a través de una cuenta Pro.