Gartner: GPT-5 avanza, pero la IA agéntica real necesita mejor infraestructura
Imagine tener los coches deportivos más potentes del mundo, pero sin autopistas para conducirlos. Según Gartner, aquí es precisamente donde se encuentra la inteligencia artificial hoy. Aunque los modelos de IA son cada vez más sofisticados y capaces, la infraestructura fundamental necesaria para liberar todo su potencial en el mundo real sigue en gran parte sin construirse. Arun Chandrasekaran, un distinguido vicepresidente analista de Gartner, compara el estado actual con tener excelentes motores de coche sin un sistema de autopistas funcional, lo que provoca una notable ralentización en el progreso de las capacidades de los modelos, incluso para avances como el GPT-5 de OpenAI. Aunque es un paso significativo, el GPT-5 solo ofrece tenues destellos de una IA verdaderamente autónoma y agéntica.
Gartner reconoce que OpenAI ha logrado avances considerables con GPT-5 en varias áreas clave. El modelo demuestra una mayor competencia en tareas de codificación, un giro estratégico de OpenAI para capitalizar las vastas oportunidades en ingeniería de software empresarial y desafiar a competidores como Anthropic. Además, GPT-5 muestra progreso en capacidades multimodales más allá del texto, particularmente en el procesamiento de voz e imágenes, abriendo nuevas vías de integración para las empresas.
Un avance notable en GPT-5 es su uso mejorado de herramientas, lo que impulsa sutilmente el diseño de agentes de IA y la orquestación. El modelo ahora puede llamar a API y herramientas de terceros, e incluso realizar llamadas de herramientas paralelas, manejando múltiples tareas simultáneamente. Esto, sin embargo, requiere que los sistemas empresariales estén equipados para gestionar solicitudes de API concurrentes dentro de una única sesión. La planificación en múltiples pasos de GPT-5 también permite que una lógica de negocio más compleja resida dentro del propio modelo, lo que podría reducir la dependencia de motores de flujo de trabajo externos. Sus ventanas de contexto expandidas —8K para usuarios gratuitos, 32K para suscriptores Plus y un sustancial 128K para usuarios Pro— están preparadas para remodelar los patrones de arquitectura de IA empresarial. Esto significa que las aplicaciones que antes necesitaban complejas tuberías de generación aumentada por recuperación (RAG) para navegar por los límites de contexto ahora pueden alimentar conjuntos de datos mucho más grandes directamente a los modelos, simplificando ciertos flujos de trabajo. Sin embargo, RAG está lejos de ser obsoleto; recuperar solo los datos más relevantes sigue siendo más rápido y rentable que enviar siempre entradas masivas. Gartner anticipa un cambio hacia un enfoque híbrido, donde los desarrolladores aprovechen GPT-5 para contextos más grandes y menos estructurados, mientras siguen optimizando la eficiencia.
En el frente financiero, GPT-5 reduce significativamente las tarifas de uso de API, con costos de nivel superior de $1.25 por millón de tokens de entrada y $10 por millón de tokens de salida, lo que lo hace competitivo con modelos como Gemini 2.5 y significativamente más económico que Claude Opus. Sin embargo, su relación precio de entrada/salida es más alta que la de modelos anteriores, un factor que los líderes de IA deben considerar para escenarios de alto uso de tokens.
OpenAI está moviéndose estratégicamente para consolidar su oferta de modelos, con GPT-5 eventualmente destinado a reemplazar a GPT-4o y su serie o. Esta estrategia, parcialmente influenciada por la disidencia de los usuarios después de los intentos iniciales de descontinuación, tiene como objetivo abstraer la complejidad para los usuarios. La introducción de tres tamaños de modelo —Pro, Mini y Nano— permitirá a los arquitectos clasificar los servicios según el costo y la latencia, permitiendo que los modelos más pequeños manejen consultas simples y el modelo completo aborde tareas complejas. Las empresas que adopten GPT-5 deben prepararse para posibles revisiones y ajustes de código debido a diferencias en los formatos de salida, la memoria y los comportamientos de llamada de funciones, y auditar las plantillas de avisos existentes, ya que algunas soluciones alternativas pueden volverse obsoletas. Esta consolidación también aborda los desafíos de capacidad de cómputo de OpenAI, lo que requiere asociaciones con los principales proveedores de la nube como Microsoft, Oracle y Google, ya que ejecutar múltiples generaciones de modelos exige una infraestructura acorde.
GPT-5 también introduce nuevas consideraciones sobre el riesgo y la adopción. OpenAI afirma una reducción en las tasas de alucinación de hasta un 65% en comparación con modelos anteriores, lo que podría reducir los riesgos de cumplimiento y mejorar la idoneidad para casos de uso empresarial. Sus explicaciones de cadena de pensamiento (CoT) también respaldan la auditabilidad y la alineación regulatoria. Por el contrario, estas tasas de alucinación más bajas combinadas con las capacidades avanzadas de razonamiento y procesamiento multimodal de GPT-5 podrían amplificar el uso indebido, como la generación de estafas sofisticadas e intentos de phishing. Los analistas aconsejan que los flujos de trabajo críticos continúen siendo revisados por humanos, aunque con un muestreo potencialmente reducido. Gartner recomienda que los líderes empresariales prueben y evalúen GPT-5 en escenarios de misión crítica, realizando evaluaciones comparativas con otros modelos para evaluar la precisión, la velocidad y la experiencia del usuario. También aconsejan revisar las políticas de gobernanza, experimentar con integraciones de herramientas y parámetros de razonamiento, y auditar los planes de infraestructura para soportar las capacidades expandidas de GPT-5.
Si bien la IA agéntica es un “tema súper candente” y un área de inversión principal en el Ciclo de Hype de Gartner de 2025 para la IA Generativa, ha alcanzado la “Cima de las Expectativas Infladas”. Esta fase, marcada por una publicidad generalizada y expectativas poco realistas de los éxitos iniciales, típicamente precede al “Valle de la Desilusión”, donde el interés y la inversión disminuyen a medida que las implementaciones no cumplen las promesas exageradas. Muchos proveedores están actualmente vendiendo en exceso productos como listos para la producción para despliegues agénticos, pero en realidad, la adopción a nivel empresarial sigue siendo escasa. Los despliegues actuales se limitan a nichos estrechos, como la ingeniería de software o las adquisiciones, e incluso estos suelen ser impulsados por humanos o semiautónomos.
Un impedimento clave para la verdadera IA agéntica es la falta de una infraestructura robusta. Los agentes requieren acceso sin fisuras a una amplia gama de herramientas empresariales, la capacidad de comunicarse con diversas bases de datos y aplicaciones SaaS, y sistemas robustos de gestión de identidad y acceso para controlar su comportamiento y acceso a datos. Fundamentalmente, las empresas deben confiar en la fiabilidad de la información producida por los agentes, asegurándose de que esté libre de sesgos, alucinaciones o datos falsos. Para cerrar esta brecha, los proveedores deben colaborar y adoptar estándares más abiertos para la comunicación de herramientas de agente a empresa y de agente a agente. Si bien las tecnologías subyacentes de IA están progresando, las capas esenciales de orquestación, gobernanza y datos necesarias para que los agentes realmente prosperen aún están en desarrollo, creando una fricción significativa en el panorama actual. Además, si bien la IA está avanzando en el razonamiento, opera en gran medida en un ámbito digital, aún luchando por comprender el mundo físico, a pesar de las mejoras continuas en la robótica espacial.
En última instancia, a pesar de los avances significativos observados en GPT-5, la industria está muy lejos de lograr la Inteligencia Artificial General (AGI), el objetivo final que OpenAI se definió a sí misma. El verdadero progreso hacia la AGI, sostienen los expertos, probablemente requerirá una revolución fundamental en la arquitectura o el razonamiento del modelo, que vaya más allá de simplemente escalar datos y computación.