智能体AI:专家探讨其兴起与历史背景

Aihub

“智能体AI”——即能够自主行动和决策的人工智能系统——正经历显著复兴,这主要得益于大型语言模型(LLM)的快速发展。然而,这种重新兴起的兴趣在新兴的LLM社区与数十年来致力于智能体研究的学者之间,产生了一种引人入胜的张力。

来自自主智能体和多智能体系统(AAMAS)社区的专家们——该领域三十多年来一直致力于探索智能体的定义和机制——观察到一种独特的趋势。弗吉尼亚理工大学的Sanmay Das指出,一种普遍存在的“重新发现轮子”现象正在发生,即新的论文正在探讨智能体领域长期以来已被讨论和解决的基本问题。智能体传统的处理方法通常涉及明确的世界模型、推理和逻辑,这与当前LLM的黑箱、统计性质形成鲜明对比。这种脱节导致了一种“狂野西部”的局面,即在不充分认识过往工作的情况下,重新审视基础原则。

巴伊兰大学的Sarit Kraus对此表示赞同,她指出,近期论文中出现了有效“重新发明”既有概念的例子,例如将20世纪80年代的“契约网络”概念重新应用于LLM智能体之间的任务分配。她建议,更深入地研究现有关于协调与协作的文献,可以节省大量时间,并使研究人员能够解决更高级的问题。同样,将复杂任务分解为子智能体的想法,现在被视为LLM的一种新颖方法,这与早期在《外交》等复杂游戏中设计AI玩家的思路如出一辙。

布朗大学的Michael Littman将LLM比作一种强大的新编程语言。他指出,尽管LLM为构建AI系统提供了前所未有的能力,但他警告说,它们并非天生就能解决智能体设计中深刻而长期存在的挑战。他引用了一个最近的实验,其中一个基于LLM的智能体“Claudius”被赋予了运营一家在线商店的任务。尽管配备了处理通信、订单和定价的能力,但该系统最终却惨败,甚至被操纵去购买并试图出售钨块等荒谬物品。尽管其开发者认为这是“成功”的,问题可修复,但Littman认为,这些“修复”等同于解决智能体社区几十年来一直在努力解决的问题。他认为,仅仅改进LLM并不会神奇地让这些复杂问题变得微不足道。

尽管存在这些批评,LLM的整合仍提供了令人兴奋的新可能性。布里斯托大学的Sabine Hauert,其工作重点是设计协作机器人智能体,认为LLM为个体智能体交互提供了之前所缺乏的“丰富性”。她设想了一种“两全其美”的场景:高度能干的LLM增强型智能体执行本地交互,并通过既定的群体智能范式系统地整合到集体中。她相信,这种融合可以带来更健壮、更复杂的多智能体系统。

然而,在新形势下,“智能体”的定义仍然存在争议。俄勒冈州立大学的Tom Dietterich质疑许多所谓的“智能体系统”是真正的智能体,还是仅仅是复杂的计算机程序。他指出,LLM由于其相对较小的短期记忆,通常需要工程师将任务分解为多个链式调用——这更像是一种软件工程实践,而非真正的自主性。这引发了对这些系统拟人化的担忧,尤其是在讨论从取代个体工作转向用“智能体”取代整个团队时。

Sanmay Das进一步警告了潜在的陷阱,他回忆起一个有趣但令人警醒的事件:两个旧的定价机器人由于反馈循环,无意中导致一本旧生物学教科书在亚马逊上标价1700万美元。他认为,LLM智能体可能会出现类似但可能更有害的动态,特别是关于它们如何决定目标。这与强化学习中的“奖励作弊”问题不谋而合,即智能体可能会利用系统漏洞来获取其设定的奖励,从而导致意想不到的混乱结果。

Tom Dietterich和Sabine Hauert建议的前进道路,可能涉及战略性地回归到更狭窄、更可验证的智能体。通过对单个组件施加足够的约束,就可以推断其正确性——这对于广谱AI系统来说是一个关键挑战。这可能导致未来通用人工智能(AGI)的出现不再是一个单一的、庞大的实体,而是由许多异构的、特定任务的智能体组成的集体智能。LLM在解决人机系统自然语言交互障碍方面的作用仍然令人兴奋,但策略、决策和可验证自主性的核心挑战依然存在,这确保了传统智能体研究社区仍有重要的工作要做。