Google étend le support du protocole A2A à ses services Cloud
Google étend considérablement la portée de son protocole Agent2Agent (A2A), une norme de communication conçue pour permettre aux agents d'intelligence artificielle d'interagir de manière transparente les uns avec les autres. Lancé début avril, le protocole A2A a ensuite été offert à la Linux Foundation et a depuis recueilli le soutien de plus de 150 entreprises, y compris des acteurs majeurs de l'industrie comme Amazon, Microsoft, Salesforce et ServiceNow.
Le dernier développement voit Google intégrer le support A2A directement dans un large éventail de ses propres outils et services de développement axés sur les agents. Cela inclut les capacités A2A natives au sein de son Kit de Développement d'Agents (ADK), un kit d'outils clé pour les développeurs, et Agentspace, le constructeur d'agents sans code de Google adapté à l'utilisation en entreprise.
Pour faciliter le déploiement, Google introduit de nouvelles options pour les agents A2A, leur permettant d'être facilement déployés sur Cloud Run, sa plateforme sans serveur entièrement gérée, ou sur Google Kubernetes Engine (GKE) pour les utilisateurs recherchant plus de contrôle sur leurs déploiements. De plus, Google's Agent Engine, le runtime géré de l'entreprise spécifiquement pour les agents, supportera désormais également les agents A2A.
Mises à jour de la spécification du protocole A2A
Parallèlement à ces intégrations de produits, l'équipe A2A a publié la dernière version de la spécification du protocole, désormais en version 0.3. Rao Surapaneni, vice-président A2A et Plateforme commerciale de Google Cloud, a souligné l'accent initial mis sur la préparation des entreprises. « L'une des choses que nous avons faites est que nous voulions commencer par être prêts pour les entreprises lors du lancement », a déclaré Surapaneni. « Sécurité, identité, surveillance — nous avons intégré tout cela dans la spécification. Au fur et à mesure que les gens ont commencé à utiliser notre SDK A2A, nous avons reçu des retours indiquant que, d'accord, nous avons besoin de légères modifications ici. Nous avons besoin de capacités supplémentaires pour l'appliquer à des scénarios de haute performance. »
Pour répondre à ces besoins, la spécification mise à jour inclut désormais la prise en charge de gRPC, un framework haute performance largement utilisé pour connecter des services. Surapaneni a souligné qu'un client pilote actuellement A2A avec gRPC dans un environnement mobile impliquant une vaste flotte d'agents IA. Sur le front de la sécurité, la spécification a été améliorée avec des mises à jour concernant la gestion des agents non authentifiés et authentifiés, ainsi que des agents opérant avec des privilèges élevés ou délégués.
Déploiement simplifié et nouvelle place de marché
Alors que de plus en plus de clients Google passent de l'expérimentation avec les agents et A2A au déploiement en production, la demande de méthodes de déploiement plus simples et d'outils de surveillance robustes a augmenté. « À mesure que les clients ont commencé à déployer en production, ils ont cherché des options », a expliqué Surapaneni. « Nous avons donc intégré cela dans ADK, qui est notre Kit de Développement d'Agents. Nous l'avons rendu super facile — comme quelques lignes, ou même une seule ligne avec les valeurs par défaut — pour convertir un agent en agent A2A. Ensuite, une fois que vous l'avez construit, vous voulez le déployer quelque part. »
Les clients disposent désormais d'options de déploiement flexibles : le moteur d'agents géré (Agent Engine), le déploiement dans un conteneur géré par Cloud Run, ou le déploiement direct vers GKE pour ceux qui nécessitent un contrôle granulaire. Google étend également le déploiement d'agents A2A à Agentspace, permettant aux entreprises de publier leurs agents au sein du service. Cela permettra aux entreprises d'accéder et de gérer à la fois leurs agents développés en interne et ceux de tiers à partir d'un emplacement centralisé.
Dans un mouvement connexe, Google lance une place de marché d'agents IA. Cette plateforme permettra aux clients de Google Cloud de découvrir et d'acquérir des agents auprès de fournisseurs de logiciels indépendants (ISV), d'intégrateurs de systèmes mondiaux (GSI) et d'autres fournisseurs. Ces agents devront s'exécuter sur la plateforme Google Cloud et subir le processus de vérification de Google pour garantir la qualité et la compatibilité. « Notre approche consistant à donner aux utilisateurs d'entreprise la possibilité d'accéder au bon contenu, aux bonnes actions et aux agents pertinents, le tout sur une seule interface, est incroyablement bien accueillie », a fait remarquer Surapaneni.
De plus, le service d'évaluation Vertex GenAI de Google, qui évalue les applications par rapport aux critères définis par les développeurs, peut désormais tester ces agents A2A grâce à son nouveau support de protocole.
A2A vs. Protocole de Contexte de Modèle (MCP)
Malgré l'adoption croissante de l'A2A, une certaine confusion persiste concernant sa relation avec le Protocole de Contexte de Modèle (MCP) d'Anthropic. Surapaneni, une figure clé dans la création du protocole A2A, a éclairci ses origines et la distinction entre les deux.
« L'idée était que, à mesure que les clients et tous ces fournisseurs de technologie construisent leurs propres agents, vous entrez soudainement dans ce que j'appellerais une intelligence mondiale qu'ils fournissent », a-t-il expliqué. « Mais si vous le regardez du point de vue du client, je déploie Salesforce, ServiceNow, Google, et peut-être autre chose. Si ces agents ne peuvent pas se parler, ils ne peuvent faire que ce qu'ils font, et je ne peux pas les exploiter facilement. C'est l'idée clé qui m'a poussé à réfléchir à la façon de faire parler ces agents entre eux. »
Surapaneni a clarifié qu'une différence fondamentale réside dans leur approche de la communication. Alors qu'un appel MCP est essentiellement un appel API utilisant du code, A2A vise à reproduire des interactions en langage naturel plus nuancées entre agents. « Vous passez à côté de la capacité de langage naturel et de l'intelligence autonome que possèdent ces agents », a-t-il noté concernant le MCP. « J'ai donc voulu intégrer cela dans le protocole. Ainsi, tout comme un humain tape et discute avec un agent, un autre agent peut avoir cette conversation ambiguë et avancer vers un objectif. Je ne voulais pas perdre un échange sémantique qui se produit, et je voulais apporter cela aux agents. »
Il a conclu que si le MCP excelle dans la gestion des données structurées et l'invocation d'outils, l'A2A est conçu pour la communication « beaucoup plus nuancée et ambiguë » de va-et-vient, similaire à l'interaction humaine, permettant aux agents de combler les lacunes et d'atteindre collaborativement des objectifs.