Gary Marcus: GPT-5, más bombo que sustancia y problemas persistentes
La reciente presentación de GPT-5, el último modelo de lenguaje grande insignia de OpenAI, ha sido recibida con una familiar ola de escepticismo por parte del prominente crítico de IA Gary Marcus. En una publicación de blog con un lenguaje contundente, Marcus acusó a OpenAI de fomentar una emoción “tardía, sobrevalorada y decepcionante”, sosteniendo que el nuevo modelo, lejos de ser un avance, representa meramente otro paso incremental en la evolución continua de la IA, aún plagada de problemas fundamentales persistentes en toda la industria.
Escéptico de larga data sobre la eficacia de simplemente escalar redes neuronales para lograr una verdadera inteligencia, Marcus aprovechó el lanzamiento de GPT-5 para reiterar sus críticas centrales. Caracterizó a GPT-5 como “el último avance incremental”, añadiendo que “se sintió apresurado”. Aunque el CEO de OpenAI, Sam Altman, promocionó a GPT-5 como una experiencia similar a “hablar con… un experto legítimo a nivel de doctorado en cualquier cosa”, Marcus sigue sin convencerse. Señaló con sarcasmo que GPT-5 es “apenas mejor que el ‘sabor del mes’ del mes pasado (Grok 4); en algunas métricas (ARC-AGI-2) es incluso peor”, refiriéndose a un punto de referencia común para medir las habilidades de razonamiento de la IA.
De hecho, Marcus destacó que los fallos típicos asociados con los modelos de lenguaje grandes surgieron casi inmediatamente después del lanzamiento de GPT-5. Expresó su deseo de quedar genuinamente impresionado por “un sistema que pudiera haber pasado una semana sin que la comunidad encontrara un montón de errores ridículos y alucinaciones”. En cambio, a las pocas horas de su debut, el sistema exhibió deficiencias familiares, incluyendo explicaciones de física defectuosas durante su transmisión en vivo de lanzamiento, respuestas incorrectas a problemas básicos de ajedrez y errores en el análisis de imágenes.
Estos errores aislados, argumentó Marcus, no son anomalías sino síntomas de problemas que afectan a toda la industria. Llamó la atención sobre un estudio reciente de la Universidad Estatal de Arizona que resuena profundamente con sus preocupaciones. El artículo sugiere que el razonamiento de “cadena de pensamiento” —un método de IA diseñado para desglosar problemas complejos en pasos más pequeños y secuenciales— es “un espejismo frágil que se desvanece cuando se empuja más allá de las distribuciones de entrenamiento”. Marcus señaló que leer el resumen del estudio le dio una sensación de déjà vu, reforzando su creencia de larga data de que “El talón de Aquiles que identifiqué entonces todavía persiste”.
Este problema de “cambio de distribución”, donde los modelos de IA tienen dificultades cuando se les presentan datos o escenarios fuera de sus parámetros de entrenamiento específicos, es, según Marcus, precisamente la razón por la cual otros modelos grandes, desde Grok hasta Gemini, también fallan en “tareas de transferencia” más complejas que requieren aplicar conocimientos a situaciones novedosas. Afirmó que “No es un accidente. Ese fallo es fundamental”, sugiriendo una limitación inherente más que un simple error.
Más allá de los detalles técnicos de GPT-5, Marcus amplió su crítica para abarcar tendencias más amplias dentro del sector de la IA. Condenó el rampante bombo en torno al concepto de Inteligencia Artificial General (AGI), la dependencia de videos de demostración cuidadosamente seleccionados que ocultan las limitaciones, la omnipresente falta de transparencia con respecto a los datos de entrenamiento y una industria que, según él, prioriza el marketing sobre la investigación científica genuina. En su evaluación directa, “Nos han alimentado con una dieta constante de tonterías durante los últimos años”.
Como correctivo, Marcus abogó una vez más por los enfoques neurosimbólicos, que combinan las fortalezas de reconocimiento de patrones de las redes neuronales con las capacidades de razonamiento lógico de la IA simbólica, a menudo incorporando “modelos de mundo explícitos” que brindan a la IA una comprensión más clara de las reglas que rigen su entorno. Para Marcus, el lanzamiento de GPT-5 no es un paso hacia la AGI, sino más bien un momento crucial en el que incluso los entusiastas de la tecnología más dedicados podrían comenzar a cuestionar seriamente la “hipótesis de escalabilidad” —la creencia de que simplemente hacer los modelos más grandes conducirá inevitablemente a una IA más inteligente y capaz.