Fracaso de GPT-5: ChatGPT recupera su complejo selector de modelos

Techcrunch

El reciente lanzamiento de GPT-5 por parte de OpenAI tenía la intención de marcar el comienzo de una nueva era de simplicidad para los usuarios de ChatGPT, con la compañía promocionando un modelo de IA de “talla única”. Esta ambiciosa visión incluía un sistema de enrutamiento inteligente diseñado para determinar automáticamente la forma óptima de responder a las consultas de los usuarios, dejando idealmente obsoleto el complejo menú de selección de modelos, una característica por la que el propio CEO de OpenAI, Sam Altman, ha expresado públicamente su desdén. Sin embargo, este enfoque unificado ha demostrado rápidamente ser más desafiante de lo previsto.

Apenas una semana después del debut de GPT-5, Altman anunció un giro significativo en X, reintroduciendo una interfaz de selección de modelos para GPT-5. Los usuarios ahora pueden elegir entre las configuraciones “Auto”, “Rápido” y “Pensamiento”. Mientras que la opción “Auto” busca replicar el sistema de enrutamiento inicial de GPT-5, los nuevos modos “Rápido” y “Pensamiento” ofrecen a los usuarios control directo, permitiéndoles omitir el enrutador automatizado y seleccionar modelos optimizados para la velocidad o el procesamiento más profundo, respectivamente. Por ejemplo, el modelo “Pensamiento” viene con un límite de 3.000 mensajes por semana, con opciones para capacidad adicional.

Añadiendo otra capa de complejidad, OpenAI también ha reinstaurado el acceso a varios modelos de IA heredados para suscriptores de pago, incluidos GPT-4o, GPT-4.1 y o3, que habían sido eliminados progresivamente solo unos días antes. GPT-4o es ahora una opción predeterminada en el selector de modelos renovado, con otros modelos más antiguos disponibles para ser añadidos desde la configuración de ChatGPT. Esta rápida reversión subraya los desafíos que enfrenta OpenAI para equilibrar la innovación con las expectativas y preferencias del usuario.

Altman reconoció estos desafíos, señalando que OpenAI está trabajando activamente en refinar la personalidad de GPT-5 para que sea más “cálida” evitando la “molestia” percibida de GPT-4o. Más ampliamente, enfatizó la necesidad de una mayor personalización por usuario de las personalidades de los modelos, reconociendo que una única persona de IA puede no satisfacer a una base de usuarios diversa. La rápida reaparición de un menú de selección de modelos multifacético sugiere que el sistema de enrutamiento automatizado de GPT-5, a pesar de su promesa, no ha satisfecho universalmente las necesidades de los usuarios.

El lanzamiento inicial de GPT-5 fue recibido con altas expectativas, y muchos esperaban que representara un salto comparable al de GPT-4. Sin embargo, la experiencia ha sido notablemente más accidentada. La deprecación de modelos populares como GPT-4o provocó una considerable reacción negativa de los usuarios, revelando una profundidad inesperada de apego que los usuarios habían desarrollado a las respuestas y “personalidades” específicas de estos sistemas de IA. En respuesta, Altman se ha comprometido a proporcionar un aviso previo suficiente si GPT-4o alguna vez vuelve a ser deprecado. Además, el sistema de enrutamiento de GPT-5 supuestamente experimentó problemas significativos el día del lanzamiento, lo que llevó a algunos usuarios a percibir el nuevo modelo como menos eficaz que sus predecesores. El vicepresidente de ChatGPT de OpenAI, Nick Turley, abordó la situación en X, afirmando: “No siempre acertaremos a la primera, pero estoy muy orgulloso de la rapidez con la que el equipo puede iterar.”

La tarea de enrutar inteligentemente las indicaciones al modelo de IA más adecuado es inherentemente difícil. Requiere decisiones instantáneas que alineen las capacidades y la personalidad de un modelo de IA con las preferencias específicas de un usuario y la naturaleza de su consulta. Más allá de la mera velocidad de respuesta, los usuarios a menudo desarrollan preferencias por matices como la verbosidad de un modelo, su enfoque analítico o incluso su disposición a ofrecer puntos de vista contrarios.

Este fenómeno emergente del apego humano a modelos de IA específicos es un aspecto relativamente nuevo y aún no completamente comprendido de la interacción humano-IA. En un ejemplo sorprendente, se celebró un “funeral” en San Francisco para Claude 3.5 Sonnet de Anthropic cuando fue desconectado, destacando los lazos emocionales que algunos individuos forman con estas entidades digitales. Si bien tales conexiones pueden ser benignas, también plantean preguntas sobre posibles dependencias poco saludables o impactos psicológicos imprevistos. En última instancia, los recientes eventos relacionados con GPT-5 subrayan que OpenAI aún tiene un trabajo considerable por delante para adaptar sus modelos avanzados de IA a las diversas y cambiantes preferencias de sus usuarios.