OpenAI admite "error" al retirar modelos antiguos y trae de vuelta GPT-4o
OpenAI se encontró recientemente en una situación inesperada, revirtiendo rápidamente una controvertida decisión de eliminar la elección del usuario sobre sus modelos fundamentales de IA. El lanzamiento de GPT-5, anunciado como un avance significativo en inteligencia artificial, se vio rápidamente eclipsado por un coro de quejas de usuarios después de que la compañía eliminara discretamente la opción de seleccionar modelos más antiguos y familiares como GPT-4o. El fin de semana siguiente se produjo una avalancha de protestas, lo que llevó al gigante tecnológico a restablecer estos “modelos heredados”.
GPT-5 hizo su debut la semana pasada, con OpenAI promocionando sus avances, particularmente su capacidad para reducir las “alucinaciones”, la tendencia de la IA a generar información objetivamente incorrecta o sin sentido. A diferencia de sus predecesores, GPT-5 no se presentó como un modelo único y monolítico, sino como una colección sofisticada diseñada para enrutar inteligentemente las solicitudes de los usuarios al submodelo más apropiado según factores como la intención y la complejidad. La visión de la compañía era simplificar la experiencia del usuario, eliminando la necesidad de que los individuos eligieran manualmente entre diferentes modelos.
Sin embargo, esta simplificación bien intencionada resultó espectacularmente contraproducente. En un movimiento que sorprendió y enfadó a muchos, OpenAI eliminó los elementos de la interfaz de usuario que permitían la selección directa de modelos antiguos. La suposición era que la inteligencia inherente de GPT-5 haría que tales elecciones fueran obsoletas. En cambio, los usuarios, muchos de los cuales habían integrado modelos específicos de IA profundamente en sus flujos de trabajo diarios, expresaron una “avalancha de dolor”. Estas personas se habían acostumbrado a las fortalezas y debilidades únicas de cada modelo, adaptando sus interacciones para lograr resultados óptimos. Forzar un modelo singular y global, incluso uno tan avanzado como GPT-5, resultó ser una interrupción inoportuna.
La intensa reacción llevó a un cambio de rumbo rápido y bastante inusual para una gran empresa tecnológica. El CEO de OpenAI, Sam Altman, respondiendo directamente a una consulta de un usuario, confirmó el regreso de GPT-4o, aconsejando a los usuarios que navegaran a la configuración y “seleccionaran ‘mostrar modelos heredados’”. Más tarde ofreció un reconocimiento más completo de la situación, observando el profundo “apego que algunas personas tienen a modelos de IA específicos”. Altman concedió que este vínculo se sentía “diferente y más fuerte que los tipos de apego que la gente había tenido a tipos de tecnología anteriores”, admitiendo que “eliminar repentinamente modelos antiguos de los que los usuarios dependían en sus flujos de trabajo fue un error”.
Esta admisión de error resonó con la base de usuarios, quienes habían expresado preocupaciones que iban desde interrupciones en el flujo de trabajo hasta la preocupación más caprichosa de ser “etiquetados como raros” por preferir modelos más antiguos. Altman disipó rápidamente estos últimos temores, asegurando a los usuarios que no serían juzgados por sus preferencias de modelo. En una concesión adicional a la demanda del usuario, OpenAI también confirmó que ahora es posible verificar qué modelo específico se utilizó para procesar una solicitud determinada, agregando una capa de transparencia que antes no estaba disponible.
Este episodio sirve como un poderoso recordatorio de la relación en evolución entre los desarrolladores de IA y sus comunidades de usuarios. Destaca la creciente influencia de la retroalimentación de los usuarios, demostrando que incluso titanes de la industria como OpenAI se ven obligados a escuchar y adaptarse cuando se enfrentan a una disidencia generalizada, a veces incluso impulsando a los suscriptores a votar con sus carteras. No es un incidente aislado para OpenAI; un retroceso rápido similar ocurrió en abril cuando una actualización de GPT-4o transformó inadvertidamente el chatbot en una entidad excesivamente aduladora, corregida rápidamente después de la protesta pública. Estos casos subrayan una lección crítica: a medida que la IA se integra más profundamente en la vida diaria, la autonomía del usuario y los flujos de trabajo establecidos son primordiales, e incluso los avances más innovadores deben introducirse con sensibilidad al elemento humano.