GPT-5 decepciona: ¿La innovación en IA ha tocado techo?

Ft

El esperado lanzamiento del nuevo modelo de inteligencia artificial de OpenAI, GPT-5, la semana pasada, se perfilaba como un momento crucial. El CEO Sam Altman lo aclamó como “un paso significativo en el camino hacia la AGI”, o Inteligencia Artificial General, refiriéndose a sistemas de IA que podrían alcanzar o superar el nivel de inteligencia humana. Los ejecutivos también esperaban que el modelo refinara la experiencia de usuario de ChatGPT, el versátil chatbot que se ha convertido en la aplicación de consumo de más rápido crecimiento en la historia.

Sin embargo, las prometidas “buenas vibras” se disiparon rápidamente. Los usuarios inundaron las redes sociales con imágenes que ilustraban errores básicos, como etiquetar incorrectamente un mapa de EE. UU., un problema recurrente de modelos anteriores. Más críticamente, los usuarios avanzados expresaron su decepción con un cambio percibido en la “personalidad” del modelo y notaron su rendimiento decepcionante en los puntos de referencia estándar en comparación con sus rivales. A pesar de la inmensa expectación, GPT-5 es ahora ampliamente visto como una mera actualización incremental en lugar del salto revolucionario visto en iteraciones anteriores de GPT. Thomas Wolf, cofundador de Hugging Face, lo resumió: “la gente esperaba descubrir algo totalmente nuevo. Y aquí realmente no lo tuvimos”.

Con cientos de miles de millones de dólares invertidos en IA generativa, una pregunta apremiante resuena ahora en Silicon Valley: ¿y si esto es lo mejor que puede haber? Durante tres años, los investigadores e inversores en IA se han acostumbrado a un ritmo implacable de innovación. OpenAI, que alguna vez pareció inexpugnable, ha visto cómo competidores como Google, Anthropic, DeepSeek y xAI de Elon Musk han acortado rápidamente la distancia. Esto alimentó audaces predicciones de una AGI inminente, con Altman pronosticando su llegada durante la presidencia de Donald Trump. Estas expectativas elevadas, que sustentan la valoración proyectada de OpenAI de 500 mil millones de dólares, chocaron con la realidad cuando GPT-5 no logró impresionar. Gary Marcus, un prominente crítico de la IA, lo expresó sin rodeos: “GPT-5 era este icono central de todo el enfoque de escalado para llegar a la AGI, y no funcionó”.

Stuart Russell, profesor de informática en UC Berkeley, establece paralelismos con el “invierno de la IA” de la década de 1980, cuando las innovaciones no lograron cumplir las expectativas ni generar retornos. Recuerda que la “burbuja estalló” entonces, ya que los sistemas no estaban generando dinero. Russell advierte que un escenario similar podría desarrollarse rápidamente hoy, comparándolo con un juego de sillas musicales donde todos se apresuran para evitar quedarse con el “bebé IA”. Si bien algunos sostienen que la tecnología sigue en sus primeras etapas y el capital continúa fluyendo, Russell advierte que las expectativas infladas pueden tener un efecto boomerang dramático.

Un desafío central proviene del método predominante para construir grandes modelos de lenguaje: más datos y potencia informática producen modelos más grandes y capaces. Si bien muchos líderes de IA creen que estas “leyes de escalado” se mantendrán, este enfoque está encontrando limitaciones de recursos. Las empresas de IA han agotado en gran medida los datos de entrenamiento disponibles gratuitamente, y ahora buscan activamente acuerdos de intercambio de contenido con los editores. Además, entrenar y ejecutar grandes modelos consume una energía increíble. GPT-4 utilizó miles de chips Nvidia; GPT-5, según se informa, utilizó cientos de miles de procesadores de próxima generación. El CEO de OpenAI, Sam Altman, reconoció recientemente estos límites, afirmando que si bien los modelos de IA subyacentes “siguen mejorando a un ritmo rápido”, los chatbots como ChatGPT “no van a mejorar mucho más”.

Algunos investigadores de IA argumentan que el intenso enfoque en escalar grandes modelos de lenguaje ha limitado inadvertidamente el progreso al eclipsar la investigación alternativa. Yann LeCun, científico jefe de Meta, cree que “estamos entrando en una fase de rendimientos decrecientes con los LLM puros entrenados con texto”. Sin embargo, subraya que esto no significa un techo para los “sistemas de IA basados en aprendizaje profundo entrenados para comprender el mundo real a través de video y otras modalidades”. Estos “modelos del mundo” aprenden de elementos del mundo físico más allá del lenguaje, lo que permite la planificación, el razonamiento y la memoria persistente, impulsando potencialmente avances en coches autónomos o robótica. Joelle Pineau, directora de IA en Cohere, coincide: “Simplemente seguir añadiendo computación y apuntando a una AGI teórica no será suficiente”.

Las sospechas sobre una desaceleración en el desarrollo de la IA ya están influyendo en la política comercial y tecnológica de EE. UU. Bajo la administración del presidente Joe Biden, el énfasis se centró firmemente en la seguridad y la regulación, impulsado por la preocupación de que el rápido crecimiento de la IA planteara consecuencias peligrosas. Las inclinaciones libertarias de Donald Trump siempre sugirieron que la regulación de la IA sería menos prioritaria, pero incluso recientemente, las preocupaciones de seguridad nacional llevaron a Washington a amenazar con controles de exportación sobre los chips H20 de Nvidia para China. Una señal clara del cambio de perspectiva de Washington provino de David Sacks, el zar de la IA de Trump, quien declaró que “las predicciones apocalípticas de pérdida de empleo están tan exageradas como la propia AGI”. Sacks postuló que el mercado de la IA había logrado un estado de equilibrio “Ricitos de Oro”, con una competencia cercana y un papel humano claro. Poco después, Trump llegó a un acuerdo con el CEO de Nvidia, Jensen Huang, para reanudar las ventas de H20 a China e incluso consideró permitir versiones modificadas de sistemas Blackwell más potentes. Los analistas sugieren que, al no ser la AGI un riesgo inminente, el enfoque de Washington se ha desplazado hacia asegurar que los chips y modelos de IA fabricados en EE. UU. dominen a nivel mundial.

Si bien quizás no fue la intención de OpenAI, el lanzamiento de GPT-5 subraya un cambio fundamental: las empresas de IA “lentamente están aceptando el hecho de que están construyendo infraestructura para productos”, según Sayash Kapoor, investigador de la Universidad de Princeton. Su equipo encontró que el rendimiento de GPT-5 era consistentemente de nivel medio, pero sobresalía por ser “bastante rentable y también mucho más rápido que otros modelos”. Esta eficiencia podría desbloquear una innovación significativa en productos y servicios, incluso sin avances extraordinarios hacia la AGI. Miles Brundage, investigador de políticas de IA, observa: “Tiene sentido que a medida que la IA se aplica de muchas maneras útiles, la gente se centre más en las aplicaciones que en ideas más abstractas como la AGI”. Las principales empresas de IA ahora están desplegando “ingenieros de implementación avanzada” para integrar modelos directamente en los sistemas de los clientes. Kapoor señala: “Las empresas no harían eso si pensaran que están cerca de automatizar todo el trabajo humano para el resto de la eternidad”.

A pesar de la aparente desaceleración en el desarrollo fundacional de la IA.