¿GPT-5 alcanza la AGI o la IA ha tocado techo?

Theconversation

El último modelo insignia de OpenAI, GPT-5, está siendo anunciado por la compañía como un “paso significativo” hacia la Inteligencia Artificial General (AGI), un estado hipotético donde los sistemas de IA superan autónomamente a los humanos en la mayoría de las tareas económicamente valiosas. Sin embargo, a pesar de estas grandes afirmaciones, las descripciones de los avances de GPT-5 por parte del CEO de OpenAI, Sam Altman, son notablemente discretas. Destaca mejoras en la capacidad de codificación, una reducción en las “alucinaciones” (donde la IA genera información falsa) y una mejor adherencia a las instrucciones de varios pasos, particularmente al integrarse con otro software. El modelo también es, según se informa, más seguro y menos “adulador”, diseñado para no engañar ni proporcionar información dañina simplemente para complacer al usuario.

Altman sugiere que interactuar con GPT-5 se siente similar a conversar con un experto a nivel de doctorado sobre cualquier tema. Sin embargo, esta afirmación se ve inmediatamente atenuada por la incapacidad fundamental del modelo para verificar la precisión de su propia salida. Por ejemplo, tiene dificultades con tareas básicas como dibujar con precisión un mapa de América del Norte. Además, GPT-5 no puede aprender de sus propias experiencias y logró solo un 42% de precisión en el “Último Examen de la Humanidad”, un desafiante punto de referencia que cubre diversas materias científicas y académicas. Este rendimiento está ligeramente por detrás de Grok 4, un modelo competidor de xAI de Elon Musk, que, según se informa, alcanzó el 44%.

La principal innovación técnica que sustenta GPT-5 parece ser la introducción de un “enrutador”. Este componente decide inteligentemente qué modelo GPT interno usar al responder a una consulta, determinando esencialmente el esfuerzo computacional requerido para una respuesta y refinando este proceso basándose en la retroalimentación de elecciones anteriores. El enrutador puede delegar en modelos GPT líderes anteriores o en un nuevo modelo dedicado de “razonamiento más profundo” llamado GPT-5 Thinking. La naturaleza precisa de este nuevo modelo sigue sin estar clara, ya que OpenAI no ha indicado que se base en algoritmos novedosos o nuevos conjuntos de datos, dado que la mayoría de los datos disponibles ya se han utilizado ampliamente. Esto lleva a la especulación de que GPT-5 Thinking podría ser simplemente un mecanismo elaborado para solicitar a los modelos existentes varias veces, impulsándolos con más fuerza para obtener mejores resultados.

La base de los potentes sistemas de IA actuales reside en los Grandes Modelos de Lenguaje (LLM), un tipo de arquitectura de IA desarrollada por investigadores de Google en 2017. Estos modelos sobresalen en la identificación de patrones complejos dentro de vastas secuencias de palabras, que forman la base del lenguaje humano. Al entrenarse en inmensas cantidades de texto, los LLM aprenden a predecir la continuación más probable de una secuencia de palabras dada, lo que les permite generar respuestas coherentes y contextualmente relevantes a las indicaciones del usuario. Este enfoque, ejemplificado por sistemas como ChatGPT, ha mejorado constantemente a medida que los LLM se exponen a conjuntos de datos cada vez más grandes. Fundamentalmente, estos modelos operan como una intrincada tabla de búsqueda, mapeando el estímulo del usuario (indicación) a la respuesta más apropiada. Es notable que un concepto aparentemente tan simple haya permitido a los LLM superar a muchos otros sistemas de IA en términos de flexibilidad y usabilidad, aunque no siempre en precisión o fiabilidad absolutas.

A pesar de sus impresionantes capacidades, aún no se ha determinado si los LLM pueden realmente lograr la AGI. Los críticos cuestionan su capacidad de razonamiento genuino, su habilidad para comprender el mundo de una manera similar a la humana, o su destreza para aprender de la experiencia y refinar su propio comportamiento, todos ellos considerados ingredientes esenciales para la AGI. Mientras tanto, ha surgido una próspera industria de empresas de software de IA, dedicadas a “domar” los LLM de propósito general para que sean más fiables y predecibles para aplicaciones específicas. Estas empresas a menudo emplean técnicas sofisticadas de ingeniería de prompts, a veces consultando modelos varias veces o incluso utilizando numerosos LLM simultáneamente, ajustando las instrucciones hasta que se logra el resultado deseado. En algunos casos, “ajustan” los LLM con complementos especializados para mejorar su eficacia.

El nuevo enrutador de OpenAI, integrado directamente en GPT-5, se alinea con esta tendencia de la industria. Si tiene éxito, esta optimización interna podría reducir la necesidad de ingenieros de IA externos más abajo en la cadena de suministro y, potencialmente, hacer que GPT-5 sea más rentable para los usuarios al ofrecer mejores resultados sin adornos adicionales. Sin embargo, este movimiento estratégico también podría verse como una admisión implícita de que los LLM se están acercando a una meseta en su capacidad para cumplir la promesa de la AGI. Si es cierto, validaría los argumentos de científicos y expertos de la industria que han sostenido durante mucho tiempo que las limitaciones actuales de la IA no se pueden superar sin ir más allá de las arquitecturas LLM existentes.

El énfasis en el enrutamiento también hace eco de un concepto conocido como “meta-razonamiento”, que ganó prominencia en la IA durante la década de 1990. Este paradigma se centraba en la idea de “razonar sobre el razonamiento”, por ejemplo, decidir cuánto esfuerzo computacional vale la pena invertir para optimizar una tarea compleja. Este enfoque, centrado en dividir los problemas en componentes más pequeños y especializados, fue dominante antes del cambio hacia los LLM de propósito general.

El lanzamiento de GPT-5, con su enfoque en la delegación interna en lugar de nuevos algoritmos innovadores, puede marcar un giro significativo en la evolución de la IA. Si bien podría no significar un retorno completo a paradigmas más antiguos, podría marcar el comienzo de una era en la que la búsqueda implacable de modelos cada vez más complejos e inescrutables dé paso a un enfoque en la creación de sistemas de IA que sean más controlables a través de métodos de ingeniería rigurosos. En última instancia, este cambio podría servir como un poderoso recordatorio de que la visión original de la inteligencia artificial no era simplemente replicar la inteligencia humana, sino también profundizar nuestra comprensión de ella.