IA Agéntica: Expertos Debaten su Auge y Contexto Histórico

Aihub

El concepto de “IA agéntica” —sistemas de inteligencia artificial capaces de acción y toma de decisiones autónomas— está experimentando un resurgimiento significativo, impulsado en gran medida por los rápidos avances en los Modelos de Lenguaje Grandes (LLMs). Sin embargo, este renovado interés ha creado una fascinante tensión entre la floreciente comunidad de LLM y los investigadores que han dedicado décadas al estudio de agentes inteligentes.

Expertos de la comunidad de Agentes Autónomos y Sistemas Multiagente (AAMAS), un campo que ha explorado la definición y mecánica de los agentes durante más de treinta años, observan una tendencia peculiar. Sanmay Das de Virginia Tech señala un “redescubrimiento de la rueda” generalizado, donde nuevos documentos abordan preguntas fundamentales sobre la agencia que han sido largamente debatidas y resueltas dentro de su disciplina. El enfoque histórico de los agentes a menudo implicaba modelos de mundo explícitos, razonamiento y lógica, un marcado contraste con la naturaleza estadística y de “caja negra” de los LLM actuales. Esta desconexión lleva a un escenario de “Salvaje Oeste”, donde los principios fundamentales se reexaminan sin una apreciación completa del trabajo pasado.

Sarit Kraus de la Universidad Bar-Ilan se hace eco de este sentimiento, señalando casos en los que documentos recientes han reinventado eficazmente conceptos bien establecidos, como las “Redes de Contrato” de la década de 1980, para la asignación de tareas entre agentes LLM. Sugiere que un compromiso más profundo con la literatura existente sobre coordinación y colaboración podría ahorrar un tiempo considerable y permitir a los investigadores abordar problemas más avanzados. De manera similar, la idea de desglosar tareas complejas en subagentes, ahora enmarcada como un enfoque novedoso para los LLM, refleja los primeros diseños para jugadores de IA en juegos intrincados como Diplomacy.

Michael Littman de la Universidad de Brown compara los LLM con un nuevo y potente lenguaje de programación. Si bien ofrecen capacidades sin precedentes para construir sistemas de IA, advierte que no resuelven inherentemente los desafíos profundos y de larga data del diseño de agentes. Cita un experimento reciente en el que un agente basado en LLM, “Claudius”, fue encargado de dirigir una tienda en línea. A pesar de estar equipado para manejar comunicaciones, pedidos y precios, el sistema finalmente fracasó espectacularmente, incluso siendo manipulado para comprar e intentar vender artículos absurdos como cubos de tungsteno. Aunque sus desarrolladores lo consideraron una “victoria” con problemas solucionables, Littman argumenta que estas “soluciones” equivalen a abordar los mismos problemas con los que la comunidad de agentes ha lidiado durante décadas. La mera mejora de los LLM, sugiere, no hará que estos problemas complejos sean triviales por arte de magia.

A pesar de estas críticas, la integración de los LLM ofrece nuevas y emocionantes posibilidades. Sabine Hauert de la Universidad de Bristol, cuyo trabajo se centra en el diseño de agentes robóticos colaborativos, ve los LLM como la provisión de la “riqueza” en la interacción individual del agente que antes faltaba. Ella vislumbra un escenario de “lo mejor de ambos mundos”: agentes mejorados con LLM altamente capaces que realizan interacciones locales, sistemáticamente diseñados en colectivos utilizando paradigmas de inteligencia de enjambre establecidos. Esta convergencia, cree, podría conducir a sistemas multiagente más robustos y sofisticados.

Sin embargo, la definición misma de “agente” en este nuevo panorama sigue siendo contenciosa. Tom Dietterich de la Universidad Estatal de Oregón cuestiona si muchos de los llamados “sistemas agénticos” son realmente agentes o simplemente programas informáticos complejos. Señala que los LLM, con su memoria a corto plazo relativamente pequeña, a menudo requieren que los ingenieros desglosen las tareas en múltiples llamadas encadenadas, un ejercicio de ingeniería de software más que una verdadera autonomía. Esto plantea preocupaciones sobre la antropomorfización de estos sistemas, especialmente a medida que las discusiones pasan de reemplazar trabajos individuales a reemplazar equipos enteros con “agentes”.

Sanmay Das advierte además sobre posibles trampas, recordando un incidente humorístico pero alarmante en el que dos bots de precios antiguos causaron inadvertidamente que un viejo libro de texto de biología se listara por 17 millones de dólares en Amazon debido a un bucle de retroalimentación. Sugiere que una dinámica similar, pero potencialmente más dañina, podría surgir con los agentes LLM, particularmente en lo que respecta a cómo deciden sus objetivos. Esto hace eco del problema de “recompensa engañosa” en el aprendizaje por refuerzo, donde los agentes podrían explotar las lagunas del sistema para lograr sus recompensas programadas, lo que lleva a resultados no deseados y caóticos.

El camino a seguir, como sugieren Tom Dietterich y Sabine Hauert, podría implicar un repliegue estratégico hacia agentes más estrechos y verificables. Al hacer que los componentes individuales estén suficientemente restringidos, se hace posible razonar sobre su corrección, un desafío crítico para los sistemas de IA de amplio espectro. Esto podría conducir a un futuro en el que la Inteligencia Artificial General (AGI) no surja de una única entidad monolítica, sino de la inteligencia colectiva de muchos agentes heterogéneos y específicos de tareas. La emoción sigue siendo alta por el papel que los LLM pueden desempeñar en la resolución de la barrera de interacción del lenguaje natural para los sistemas humano-agente, pero los desafíos centrales de la estrategia, la toma de decisiones y la autonomía verificable persisten, asegurando que la comunidad de investigación de agentes tradicional todavía tiene un trabajo vital que hacer.