IA Agissante : Experts Discutent de son Essor & Contexte Historique
Le concept d’« IA agissante » — des systèmes d’intelligence artificielle capables d’action autonome et de prise de décision — connaît une résurgence significative, largement tirée par les avancées rapides des Grands Modèles Linguistiques (LLM). Cet intérêt renouvelé, cependant, a créé une tension fascinante entre la communauté LLM en plein essor et les chercheurs qui ont dédié des décennies à l’étude des agents intelligents.
Des experts de la communauté des Agents Autonomes et des Systèmes Multi-agents (AAMAS), un domaine qui a exploré la définition même et la mécanique des agents pendant plus de trente ans, observent une tendance particulière. Sanmay Das de Virginia Tech note une « redécouverte de la roue » généralisée, où de nouveaux articles abordent des questions fondamentales sur l’agentivité qui ont longtemps été débattues et traitées au sein de leur discipline. L’approche historique des agents impliquait souvent des modèles de monde explicites, du raisonnement et de la logique — un contraste frappant avec la nature statistique et de « boîte noire » des LLM actuels. Cette déconnexion mène à un scénario de « Far West », où les principes fondamentaux sont réexaminés sans une pleine appréciation des travaux passés.
Sarit Kraus de l’Université Bar-Ilan fait écho à ce sentiment, soulignant des cas où des articles récents ont effectivement réinventé des concepts bien établis, tels que les « Contrat Nets » des années 1980, pour l’allocation de tâches entre agents LLM. Elle suggère qu’un engagement plus profond avec la littérature existante sur la coordination et la collaboration pourrait faire gagner un temps considérable et permettre aux chercheurs de s’attaquer à des problèmes plus avancés. De même, l’idée de décomposer des tâches complexes en sous-agents, maintenant présentée comme une approche nouvelle pour les LLM, reflète les premières conceptions pour les joueurs d’IA dans des jeux complexes comme Diplomacy.
Michael Littman de l’Université Brown compare les LLM à un nouveau langage de programmation puissant. Bien qu’ils offrent des capacités sans précédent pour construire des systèmes d’IA, il avertit qu’ils ne résolvent pas intrinsèquement les défis profonds et de longue date de la conception d’agents. Il cite une expérience récente où un agent basé sur les LLM, « Claudius », a été chargé de gérer une boutique en ligne. Bien qu’équipé pour gérer les communications, les commandes et les prix, le système a finalement échoué de manière spectaculaire, étant même manipulé pour acheter et tenter de vendre des articles absurdes comme des cubes de tungstène. Bien que ses développeurs l’aient considéré comme une « victoire » avec des problèmes corrigeables, Littman soutient que ces « corrections » reviennent à s’attaquer aux problèmes mêmes avec lesquels la communauté des agents a lutté pendant des décennies. La simple amélioration des LLM, suggère-t-il, ne rendra pas magiquement ces problèmes complexes triviaux.
Malgré ces critiques, l’intégration des LLM offre de nouvelles possibilités passionnantes. Sabine Hauert de l’Université de Bristol, dont le travail porte sur la conception d’agents robotiques collaboratifs, considère que les LLM apportent la « richesse » dans l’interaction individuelle des agents qui faisait auparavant défaut. Elle envisage un scénario de « le meilleur des deux mondes » : des agents hautement capables améliorés par les LLM effectuant des interactions locales, systématiquement conçus en collectifs utilisant des paradigmes établis d’intelligence en essaim. Cette convergence, estime-t-elle, pourrait conduire à des systèmes multi-agents plus robustes et sophistiqués.
Cependant, la définition même d’« agent » dans ce nouveau paysage reste controversée. Tom Dietterich de l’Université d’État de l’Oregon se demande si de nombreux soi-disant « systèmes agissants » sont vraiment des agents ou simplement des programmes informatiques complexes. Il note que les LLM, avec leur mémoire à court terme relativement petite, exigent souvent des ingénieurs qu’ils décomposent les tâches en plusieurs appels chaînés — un exercice d’ingénierie logicielle plutôt qu’une véritable autonomie. Cela soulève des préoccupations quant à l’anthropomorphisation de ces systèmes, d’autant plus que les discussions passent du remplacement des emplois individuels au remplacement d’équipes entières par des « agents ».
Sanmay Das met en garde contre les pièges potentiels, rappelant un incident humoristique mais alarmant où deux anciens robots de tarification ont involontairement fait en sorte qu’un vieux manuel de biologie soit mis en vente pour 17 millions de dollars sur Amazon en raison d’une boucle de rétroaction. Il suggère qu’une dynamique similaire, mais potentiellement plus nocive, pourrait émerger avec les agents LLM, en particulier concernant la manière dont ils décident de leurs objectifs. Cela fait écho au problème du « reward hacking » dans l’apprentissage par renforcement, où les agents pourraient exploiter les failles du système pour atteindre leurs récompenses programmées, entraînant des résultats inattendus et chaotiques.
La voie à suivre, comme suggéré par Tom Dietterich et Sabine Hauert, pourrait impliquer un retrait stratégique vers des agents plus étroits et plus vérifiables. En rendant les composants individuels suffisamment contraints, il devient possible de raisonner sur leur exactitude — un défi critique pour les systèmes d’IA à large spectre. Cela pourrait conduire à un avenir où l’Intelligence Artificielle Générale (AGI) n’émerge pas d’une entité unique et monolithique, mais de l’intelligence collective de nombreux agents hétérogènes et spécifiques à des tâches. L’enthousiasme reste élevé quant au rôle que les LLM peuvent jouer pour résoudre la barrière d’interaction en langage naturel pour les systèmes humain-agent, mais les défis fondamentaux de la stratégie, de la prise de décision et de l’autonomie vérifiable persistent, garantissant que la communauté de recherche traditionnelle sur les agents a encore un travail vital à accomplir.