Lanzamiento de GPT-5 Decepciona a Usuarios y Genera Especulaciones de Recorte de Costos
El jueves 8 de agosto, OpenAI presentó su muy esperado modelo de IA GPT-5, una nueva herramienta de “razonamiento” que el CEO Sam Altman promocionó como la mejor del mundo para codificación y escritura. Sin embargo, la recepción inicial de los usuarios avanzados ha sido sorprendentemente decepcionante, lo que plantea preguntas sobre los rendimientos decrecientes en una industria que invierte sumas cada vez mayores en talento e infraestructura.
El sentimiento entre muchos de los primeros adoptantes es de profunda decepción. “GPT-5 es horrible”, declaró una de las publicaciones con más votos en el subreddit de ChatGPT, criticando el modelo por “respuestas cortas que son insuficientes, una forma de hablar más molesta y estilizada de IA, menos ‘personalidad’ y muchos menos prompts permitidos, con usuarios Plus alcanzando límites en una hora”. Esta reacción inmediata sugiere una desconexión significativa entre las afirmaciones de la compañía y la experiencia del usuario.
Complicando aún más las cosas, OpenAI ha tomado la decisión estratégica de descontinuar todos los modelos precedentes, un término que la compañía usa al retirar una versión obsoleta. Esta medida, como era de esperar, ha enfurecido a muchos usuarios avanzados que durante mucho tiempo han dependido de iteraciones más antiguas y a menudo más estables de los modelos para realizar sus tareas, en lugar de adoptar constantemente las últimas versiones. Hay mucho en juego para OpenAI, una empresa ampliamente considerada a la vanguardia de la carrera de la IA, mientras la industria continúa justificando gastos de capital masivos. Después de más de un año y medio de rumores, muchos usuarios esperaban que GPT-5 representara un salto generacional monumental.
En cambio, el consenso sugiere que GPT-5 es una mezcla desconcertante de avances y regresiones. Este rendimiento mixto ha alimentado una especulación generalizada de que OpenAI está intentando gestionar los costos, una teoría plausible dado que ejecutar grandes modelos de lenguaje es un proceso notoriamente intensivo en energía y exigente para el medio ambiente. Un usuario de Reddit lo comparó con la “reduflación” (Shrinkflation), sugiriendo que la compañía, que supuestamente busca una valoración de 500 mil millones de dólares, podría estar recortando gastos. Otros usuarios se hicieron eco de este sentimiento, con comentarios como: “Me pregunto cuánto de esto fue para quitarles la carga computacional al ser más eficientes”, y “Se siente como un ahorro de costos, no como una mejora”.
La opinión predominante es que GPT-5 es una oferta débil que aprovecha un nombre de marca fuerte. Los usuarios informan que “las respuestas son más cortas y, hasta ahora, no son mejores que las de los modelos anteriores”. Combinado con políticas de uso más restrictivas, esto se siente para muchos como “una degradación comercializada como la nueva maravilla”. La migración forzada a un modelo aparentemente limitado incluso ha llevado a algunos usuarios a “lamentar” humorísticamente la pérdida de sus antiguos compañeros de IA. Un usuario de Reddit se quejó de que el tono del nuevo modelo era “brusco y cortante”, comparándolo con una “secretaria sobrecargada de trabajo” y calificándolo de “una primera impresión desastrosa”.
La propia tarjeta de sistema de GPT-5 de OpenAI, un documento detallado que describe sus capacidades y limitaciones, tampoco logró impresionar, pareciendo contradecir la afirmación de Altman de que es el mejor asistente de codificación de IA del mundo. El investigador de IA Eli Lifland tuiteó: “Primera observación: no hay mejora en todas las evaluaciones de codificación que no son SWEBench”, refiriéndose a un punto de referencia común para evaluar grandes modelos de lenguaje.
Sin embargo, las limitaciones percibidas de GPT-5 pueden ofrecer un rayo de esperanza en términos de seguridad. METR, una organización de investigación sin fines de lucro centrada en evaluar si los “sistemas de IA frontera podrían plantear riesgos catastróficos para la sociedad”, concluyó que es “improbable que el pensamiento de GPT-5 acelere a los investigadores de I+D de IA en >10x” o sea “capaz de una aplicación deshonesta”.
Si bien Sam Altman aún no ha abordado directamente la reacción negativa generalizada, sus declaraciones públicas sobre GPT-5 insinúan una conciencia de sus poderes atenuados. Tuiteó que, si bien GPT-5 es “el modelo más inteligente que hemos hecho”, el enfoque principal estaba en la “utilidad en el mundo real y la accesibilidad/asequibilidad masiva”. En medio de la valoración de medio billón de dólares en juego, Altman continuó prometiendo futuras mejoras, agregando: “Podemos lanzar modelos mucho, mucho más inteligentes, y lo haremos, pero esto es algo de lo que se beneficiarán mil millones de personas”. El desafío para OpenAI ahora es reconciliar estas grandes promesas con la experiencia de usuario inmediata y, en gran medida, crítica.