OpenAI da marcha atrás con GPT-5: Vuelve la selección y personalización de modelos
OpenAI ha navegado recientemente un período de intensa retroalimentación de usuarios, iniciando una corrección de rumbo significativa tras el lanzamiento de su último modelo insignia, GPT-5. La estrategia inicial para GPT-5 apuntaba a una experiencia de inteligencia artificial unificada, donde un único modelo avanzado enrutaría inteligentemente las solicitudes de los usuarios al backend de IA más apropiado, simplificando idealmente las interacciones al eliminar la necesidad de selección manual del modelo. Sin embargo, esta visión rápidamente encontró resistencia de una base de usuarios acostumbrada a un mayor control.
El debut de GPT-5 desató protestas generalizadas de los usuarios, particularmente en lo que respecta a la eliminación de opciones para seleccionar modelos anteriores y preferidos. La reacción inmediata llevó al CEO de OpenAI, Sam Altman, a reconocer los problemas, confirmando el rápido regreso del modelo GPT-4o. Esta concesión inicial fue seguida pronto por ajustes más extensos, lo que señala una notable desviación de la filosofía del modelo unificado.
En respuesta al clamor por un control más granular, OpenAI ha introducido ahora un interruptor de “mostrar modelos adicionales” dentro de la configuración web de ChatGPT para los suscriptores de pago. Este nuevo interruptor proporciona acceso a una gama de modelos más antiguos, incluidos o3, 4.1 y un mini-modelo especializado GPT-5 Thinking. Además, el propio GPT-5 ahora ofrece a los usuarios la opción entre los modos ‘Auto’, ‘Rápido’ y ‘Thinking’. Si bien ‘Auto’ se recomienda para la mayoría de los casos de uso general, las opciones ‘Rápido’ y ‘Thinking’ se adaptan a los usuarios que buscan características de rendimiento más específicas o un procesamiento computacional más profundo, con el modo ‘Thinking’ actualmente limitado a 3.000 mensajes por semana. Altman reiteró que GPT-4o sigue siendo el predeterminado para todos los usuarios de pago y aseguró que se proporcionaría un aviso amplio en caso de que alguna vez se elimine gradualmente.
Estas rápidas actualizaciones representan una clara admisión por parte de OpenAI de que su enfoque inicial para el enrutamiento de solicitudes de GPT-5 no se alineaba con las diversas preferencias de su base de usuarios. Nick Turley, vicepresidente y jefe de ChatGPT de OpenAI, reconoció con franqueza el error de la compañía, afirmando: “No siempre vamos a acertar todo en el primer intento”, al mismo tiempo que expresó orgullo por la capacidad del equipo para iterar rápidamente basándose en la retroalimentación. El propio Altman admitió previamente que descontinuar repentinamente modelos en los que los usuarios confiaban fue un error.
A pesar de los ajustes internos y los cambios impulsados por los usuarios, la adopción de GPT-5 continúa en toda la industria. Microsoft, por ejemplo, confirmó recientemente la integración del modelo en GitHub Copilot para Visual Studio, elogiándolo como el modelo más avanzado de OpenAI hasta la fecha. De cara al futuro, OpenAI también está trabajando en refinar la “personalidad” de GPT-5 para que sea “más cálida” que su iteración actual, pero menos propensa a las molestias percibidas que algunos usuarios experimentaron con GPT-4o. Este refinamiento continuo subraya un aprendizaje clave para la compañía: la imperativa de una mayor personalización por usuario de las personalidades de los modelos de IA para satisfacer las variadas demandas de su audiencia global.