AI智能体协议战:标准林立扼杀创新?
AI智能体通信协议的激增和相互竞争,正威胁着削弱企业中智能体AI的巨大潜力。当前局面非但未能促进无缝协作,反而正在制造一个“巴别塔”,导致碎片化、集成成本增加和厂商锁定。这与过去业界在互操作性方面的挣扎如出一辙,从面向服务的架构到网络服务和消息中间件,皆是如此。
智能体,从专门的大型语言模型(LLMs)和服务代理机器人,到物联网数字孪生和工作流管理器,旨在高效、安全、透明地进行通信。然而,业界正目睹着大量新兴“标准”的涌现,每个都由不同的厂商和组织力推。这包括OpenAI的Function Calling及其提议的OpenAI智能体协议(OAP)、微软的Semantic Kernel(SK)扩展、Meta的Agent Communication Protocol(Meta-ACP)、LangChain智能体协议(LCAP)、斯坦福的Autogen协议、Anthropic的Claude-Agent Protocol、W3C多智能体协议社区组的倡议,以及IBM的AgentSphere。这份详尽的列表绝非穷尽,还有更多协议出现在各种论坛中。
虽然竞争可以推动创新,但在基础通信的背景下,它往往导致信息孤岛。在一个协议上训练的智能体无法与使用另一个协议的智能体无缝交互,这迫使企业投入昂贵的转换层、面临厂商锁定,或者在等待市场整合期间陷入停滞。历史提供了警示:例如CORBA和DCOM的兴衰,以及在大量投资浪费后,REST和JSON等更简单协议的最终胜利。
核心问题是,多个标准实际上意味着根本没有标准。这种缺乏统一方法的情况扼杀了对于广泛采用至关重要的网络效应,并将宝贵的时间和资源从创造真正的商业价值,转移到争论微小的协议差异和管理兼容性问题上。业界倾向于将简单问题复杂化,追求通用、无限可扩展的协议,却常常忽视大多数企业智能体交互只需几种基本消息类型即可处理:请求、响应、通知和错误。
最近的发展凸显了这场持续的“协议战争”。例如,谷歌于2025年4月推出了Agent-to-Agent(A2A)协议,旨在为智能体提供一个通用通信标准,使其能够在不同框架、生态系统和厂商之间互操作。A2A是谷歌DeepMind和谷歌研究部门主导的开源倡议,旨在成为智能体的“HTTP”,使智能体能够发现功能、交换结构化JSON消息,并在不暴露内部状态的情况下安全协作。这项倡议直接解决了LangGraph、CrewAI和AutoGen等框架造成的碎片化问题,这些框架都有各自的消息层。同样,IBM也积极推动其Agent Communication Protocol(ACP),旨在为AI智能体提供一种共享语言来执行复杂任务,并补充Anthropic的Model Context Protocol(MCP)。
Anthropic的MCP于2024年11月推出,专注于标准化AI智能体如何访问外部工具和数据,充当LLM的“外部大脑”。它旨在消除“N x M”集成问题,即每种智能体-工具组合都需要定制连接器。MCP正获得显著关注,ThoughtSpot等公司正推出企业级MCP服务器,以将分析能力集成到AI智能体和平台中。
尽管A2A、MCP和ACP等开放标准方面做出了努力,但协议的扩散仍在继续。W3C多智能体协议社区组于2025年5月成立,正积极致力于开发开放、可互操作的协议,用于智能体在网络上的发现、识别和协作,并定期举行双周会议。这项集体努力突显了对通用标准的公认需求,以构建一个可信、协作的智能体网络。
为了真正释放智能体AI的价值,业界必须抵制盲目追随每一个新协议潮流的冲动。相反,重点应放在建立一个最小可行协议上——一个简单、广泛采用的标准(如带有通用模式的HTTP+JSON),能够处理大多数用例,并随着实际需求的出现逐步添加扩展。商业领袖和架构师应要求互操作性,并优先考虑抽象层以防止厂商锁定。企业AI的未来取决于打破这种“协议虚荣”的循环,并培育一个真正互联、协作的AI生态系统。