L'Ingénierie de Plateforme: Pilier de l'Adoption de l'IA en Entreprise
Le paysage de l’adoption technologique est en pleine mutation, notamment en ce qui concerne l’intelligence artificielle. L’ère des mandats hiérarchiques pour les outils de développement s’estompe, car environ la moitié des entreprises favorisent désormais l’adoption de l’IA par une approche ascendante, donnant aux équipes les moyens d’expérimenter de nouveaux outils de développement d’IA. Pour les organisations lentes à embrasser ce changement, la montée de l’“IA fantôme” – des outils non sanctionnés utilisés par les employés – rendra bientôt nécessaire une adoption formelle.
Cependant, cette liberté retrouvée introduit également des risques significatifs et un potentiel d’inefficacité. Malgré plus de trois ans d’intégration rapide de l’IA, seulement 60 % des organisations ont établi une politique d’utilisation acceptable pour l’IA. De plus, bien que les deux tiers des organisations aient déployé des outils d’IA dans des environnements de production, une proportion similaire – 60 % – manque encore de métriques claires pour mesurer efficacement l’impact de l’IA. En outre, la concentration intense sur les 20 % du temps d’un développeur consacré au codage a révélé un paradoxe surprenant : le code généré par l’IA, bien que perçu comme un accélérateur de productivité, peut en réalité ralentir le débit des développeurs et compromettre la fiabilité.
Cet environnement complexe souligne la pertinence croissante de l’ingénierie de plateforme, qui a émergé ces dernières années en grande partie en réponse à la complexité croissante des piles technologiques modernes. Aujourd’hui, elle offre une solution convaincante à de nombreux obstacles à l’adoption de l’IA. Tout comme l’IA elle-même, l’ingénierie de plateforme est plus efficace lorsqu’elle s’attaque aux “corvées” et autres distractions qui empêchent les développeurs de logiciels de fournir de la valeur aux utilisateurs finaux.
Il n’est donc pas surprenant que la quatrième édition de PlatformCon en juin ait largement mis en avant les discussions sur l’ingénierie de plateforme dans le contexte de l’IA. Une plateforme interne de développeurs (PID), s’avère-t-il, peut établir les garde-fous idéaux pour favoriser l’innovation en IA sans conséquences désastreuses. Luca Galante, une voix éminente dans le domaine, a souligné ce point, déclarant que si l’IA fait les gros titres, “les plateformes pour l’IA seront l’épine dorsale de tout cela”, permettant la création de chemins de production de niveau entreprise pour tout, de la science des données et l’apprentissage automatique à l’ingénierie traditionnelle.
L’ère de l’IA nécessite une évolution de la PID pour englober les processus d’IA. Cette expansion facilitera le déploiement évolutif de cas d’utilisation d’IA éprouvés dans le développement logiciel tout en brisant les silos de données. En comblant ces lacunes, l’ingénierie de plateforme est prête à garantir la cohérence, la qualité et la sécurité dans la livraison des agents d’IA autonomes et des applications d’IA générative.
Jusqu’à récemment, l’IA était largement confinée aux départements de science des données. Désormais, elle doit suivre la trajectoire de l’adoption du cloud inter-organisationnelle. Patrick Debois, co-auteur du “DevOps Handbook”, a soutenu à PlatformCon que l’IA nécessite une équipe de plateforme dédiée. Dans cette nouvelle ère, l’ingénieur IA émerge comme un agent de changement clé, facilitant la voie accélérée de la science des données vers la production en collaborant avec l’équipe de plateforme sur la coopération inter-équipes, l’habilitation des équipes de science des données et d’applications, et une gouvernance robuste.
Debois envisage une version de la plateforme interne de développeurs traditionnelle améliorée par l’IA, réorganisée pour inclure davantage de parties prenantes de l’IA et étendre son champ d’action pour gérer : les grands modèles de langage (LLM), qu’ils soient open source, propriétaires ou hybrides ; les données non structurées et structurées, nécessitant une indexation via des bases de données vectorielles ; RagOps (Génération augmentée par récupération en tant que service), un concept émergent intégrant des sources de données tierces ; les agents IA en tant que service, englobant la mémoire, l’état, le contrôle d’accès et l’exposition aux serveurs du protocole de contexte de modèle (MCP) ; les environnements d’exécution isolés pour les agents IA ; un contrôle d’accès et de version complet sur toutes les entrées et sorties des modèles ; et une couche de cache centrale pour gérer les coûts. Tous ces composants seraient accessibles via le “panneau de contrôle unique” de la plateforme, offrant transparence et une vue unifiée. Un tel ensemble d’outils complet, mais en expansion, souligne davantage la nécessité d’une PID pour le gérer efficacement. Debois suggère que les nouvelles équipes de plateforme IA devraient commencer par créer des environnements de prototypage et de bac à sable pour une expérimentation sûre avec de nouveaux outils IA. Une fois que les développeurs se familiarisent, un cadre standardisé aligné avec les langages existants et un écosystème robuste pour la mise en cache, les tests et le débogage peuvent conduire à des “chemins dorés” plus définis pour le développement de l’IA.
Debois a également décrit quatre modèles de “développeur natif de l’IA” en évolution : le passage du producteur au gestionnaire, où les développeurs gèrent des agents de code avec le support des opérations ; de l’implémentation à l’intention, où les développeurs expriment le ‘quoi’ et l’IA gère le ‘comment’ ; de la livraison à la découverte, réduisant le coût de l’expérimentation grâce aux pipelines CI/CD existants ; et du contenu à la connaissance, car l’IA fournit une raison impérieuse pour les équipes de partager leurs connaissances, faisant potentiellement de la connaissance elle-même une proposition de valeur unique pour les entreprises.
Comme tout développement de produit, les équipes de plateforme doivent considérer leur base d’utilisateurs, qui pour l’IA s’étend au-delà des développeurs traditionnels. Ina Stoyanova, responsable de l’infrastructure et de la plateforme chez Equilibrium Energy, a souligné la nécessité d’une expansion organique des outils d’IA natifs. À ce stade précoce de l’IA, en particulier pour les startups, le changement rapide rend les fonctionnalités de plateforme rigides et permanentes potentiellement inutiles. En impliquant les parties prenantes, l’équipe de plateforme d’Equilibrium a identifié les besoins critiques des équipes d’ingénierie logicielle et de science des données, notamment la gestion des clusters, les ressources de calcul, les ressources de données, les outils de données, le stockage, l’analyse des requêtes et l’observabilité. Cependant, les équipes de science des données et d’analyse quantitative avaient également des considérations uniques qui n’étaient pas initialement sur le radar de l’équipe d’ingénierie de plateforme. Stoyanova a redéfini l’ingénierie de plateforme pour son équipe comme un “ensemble organisé d’outils, de flux de travail, d’API et de documentation réutilisables qui permettent aux utilisateurs internes de s’auto-servir l’infrastructure, les environnements et les pipelines de déploiement avec un minimum de surcharge cognitive”. Cette approche centrée sur l’utilisateur, demandant aux utilisateurs “Quels sont les outils que vous voulez utiliser ?”, leur a permis de construire les bonnes solutions sans surinvestir ou entraver la capacité d’adaptation de la startup. Equilibrium Energy a également priorisé le suivi des coûts et les métriques dès le départ, un cas d’utilisation qui a trouvé un écho auprès des équipes commerciales et techniques.
Exploiter efficacement l’IA dépend de la capitalisation des données structurées et non structurées. La plateforme interne de développeurs sert d’échafaudage sur lequel les scientifiques des données et les ingénieurs en apprentissage automatique peuvent construire une stratégie de données pour piloter les cas d’utilisation de l’IA. Lors de PlatformCon, la communauté de l’Ingénierie de Plateforme a annoncé une nouvelle architecture de référence pour l’IA, dont la publication est prévue plus tard cette année. Cette architecture fournit un modèle mental structuré englobant l’observabilité, les interfaces de plateforme et le contrôle de version, l’intégration et la livraison, la gestion des données et des modèles, et les plans de sécurité. Comme l’a noté Luca Galante, cela va au-delà des changements techniques, faisant évoluer la façon dont l’industrie perçoit l’équipe d’ingénierie de plateforme elle-même.
Traditionnellement, les équipes d’ingénierie de plateforme comprenaient divers rôles, des responsables de l’ingénierie de plateforme aux responsables de l’infrastructure, de l’expérience développeur et des produits, au service des parties prenantes, y compris les développeurs, les cadres, la conformité, le juridique, l’infrastructure, les opérations et les équipes de sécurité. À la lumière de l’IA, la structure de l’équipe et le développement des rôles se sont étendus pour inclure des ingénieurs de plateforme de fiabilité, de sécurité, de données et d’IA, et d’observabilité. Cette équipe élargie interagit désormais avec un éventail encore plus large de parties prenantes, telles que les équipes d’ingénierie de la fiabilité des sites, les architectes, les scientifiques des données et les ingénieurs d’opérations d’apprentissage automatique, reflétant une granularité accrue des besoins spécifiques sur le marché. Il ne fait aucun doute que les équipes de plateforme sont confrontées à un champ d’action étendu à l’ère de l’IA.
Un rôle clé pour les équipes de plateforme modernes est d’identifier et de faire évoluer les cas d’utilisation de la livraison d’applications d’IA générative transversales, ainsi que de sélectionner les modèles de conception appropriés (par exemple, les modèles d’IA générative ouverts versus fermés). Cependant, Majunath Bhat, vice-président analyste et membre chez Gartner, a souligné à PlatformCon que le défi d’IA le plus répandu pour les équipes de plateforme est la sécurité et la gouvernance, souvent liées aux implications en termes de coûts. Étant donné que les équipes produit peuvent manquer d’expertise dans ces domaines, les architectes fournissent souvent cette expertise. Pour faire évoluer les applications au-delà de simples prototypes, Bhat recommande d’établir un centre d’excellence en IA générative, ou une “équipe habilitante” selon Team Topologies. Cette équipe travaillerait en étroite collaboration avec les équipes produit et les experts en ingénierie de plateforme, fournissant des connaissances spécialisées qui peuvent ensuite être mises à l’échelle. Bhat met en garde contre la construction immédiate d’une plateforme partagée, faisant écho au sentiment de Stoyanova : “À moins de comprendre les différents besoins des applications, il n’est pas approprié pour l’équipe de plateforme de supposer qu’elle comprend ces besoins.” Cette approche, qui pourrait inclure des “équipes de sous-systèmes compliqués” d’experts en IA, peut réduire davantage la charge cognitive des équipes d’applications et de plateforme.
Un nouveau paradigme émerge dans la sécurité des applications. Alors que le code généré par l’IA signifie un plus grand volume de code à scanner et à protéger, les agents d’IA autonomes peuvent également aider à la remédiation proactive et autonome. La plateforme interne de développeurs n’est pas seulement un conduit pour le déploiement de nouveaux outils d’IA, mais aussi une couche cruciale pour établir des garde-fous, gérer le contrôle d’accès basé sur les rôles et automatiser les contrôles de sécurité. Sónia Antão, chef de produit senior chez Checkmarx, a souligné à PlatformCon que la sécurité des applications traditionnelle ne peut pas suivre le rythme de plus de code, de plus de contributeurs et de délais plus courts. Elle préconise l’intégration d’agents d’IA autonomes avec la gestion de la posture de sécurité des applications (ASPM) directement dans l’environnement de développement intégré (IDE) pour une sécurité du code en temps réel. Ce “décalage intelligent vers la gauche” permet à AppSec d’obtenir une vue d’ensemble claire et alignée sur les risques du paysage des applications, non seulement en détectant les vulnérabilités tôt, mais en les résolvant plus rapidement et avec confiance à la vitesse exigée par l’entreprise. Cette approche a conduit à une réduction de 25 à 35 % des vulnérabilités et à une amélioration de 69 % de la vitesse de réponse.
L’IA générative peut transformer l’ingénierie de plateforme en systèmes adaptatifs et intelligents qui améliorent la productivité des développeurs, la fiabilité et l’alignement métier, comme l’a discuté Ajay Chankramath, auteur de “Effective Platform Engineering”, à PlatformCon 2025. Il a noté que l’IA générative a évolué de l’assistance passive à des agents autonomes et conscients de l’intention, permettant des pipelines auto-réparateurs, un feedback en temps réel et des suggestions de code personnalisées. Les principales influences à l’origine de ces changements incluent la génération augmentée par récupération (RAG), qui ancre les réponses des agents IA dans une documentation contextuelle et en temps réel ; le protocole de contexte de modèle (MCP), qui standardise la façon dont les agents LLM communiquent avec les API externes pour encourager l’adoption ; et l’intégration de l’IA générative dans les pipelines CI/CD, permettant des processus intelligents, auto-correcteurs et auto-ajustables.
Chankramath a décrit une évolution des développeurs qui “trouvent par eux-mêmes” vers des PID standardisées, et maintenant vers l’intégration directe d’agents IA dans les flux de travail des développeurs. Les opérations sont passées d’approches basées sur les tickets à un semi-libre-service, et maintenant à des agents autonomes basés sur l’intention. L’objectif, a-t-il souligné, n’est pas le remplacement, mais l’élévation : permettre aux développeurs et aux ingénieurs de plateforme de se concentrer sur des activités à plus forte valeur ajoutée. Pour soutenir cette évolution de l’ingénierie de plateforme axée sur l’IA, il a formulé cinq recommandations : aligner la stratégie d’IA sur les flux de valeur des développeurs, en traitant l’IA comme des composants intégrés et natifs du flux ; toujours garder le jugement humain dans la boucle, en s’assurant que les agents proposent, et non approuvent, des actions ; rendre les agents IA collaboratifs, en permettant aux développeurs de les outrepasser, de les réentraîner et de les recontextualiser ; intégrer par défaut l’observabilité et les garde-fous, y compris les journaux de trace de jetons, la détection de dérive d’invite et la notation de pertinence ; et étendre la mesure de l’impact de l’IA au-delà de la précision et de la latence pour inclure le Net Promoter Score (NPS) des clients internes, en partageant tous les apprentissages et les métriques pour prouver les avantages et augmenter l’adoption.
Matthew Vollmer, responsable de l’agent de recherche en code profond Blink chez Coder, a fait écho au sentiment des “chemins dorés avec garde-fous”, soulignant que l’objectif n’est pas seulement d’utiliser des agents, mais de les utiliser judicieusement pour la productivité et la sécurité. Cela nécessite de fournir aux agents un contexte (documentation, politiques, bases de code), une délégation responsable (donner d’abord des outils aux développeurs seniors), et de fixer des limites claires par le biais d’environnements isolés et éphémères avec des contrôles d’accès stricts et des limites d’utilisation. L’adoption du développement axé sur les spécifications garantit que les agents d’IA fonctionnent exactement comme instruit, évitant les risques ou les coûts excessifs. Le point idéal, suggère-t-il, réside dans l’attribution aux agents de “tâches autonomes et bien définies” comme les corrections de bugs de petite à moyenne taille. Une plateforme interne de développeurs peut faciliter cela en intégrant les agents d’IA comme des coéquipiers. Vollmer a partagé une anecdote où un ingénieur a décrit l’expérience comme “travailler en binôme avec un développeur junior super rapide qui pouvait écrire du code 100 fois plus vite qu’un développeur junior humain”. En déchargeant ces “tâches ingrates” à l’IA, les équipes peuvent protéger leur temps d’innovation, permettant aux développeurs de se concentrer sur des travaux à forte valeur ajoutée.
En fin de compte, l’IA et l’ingénierie de plateforme prospèrent là où la friction est élevée. L’ingénierie de plateforme vise à réduire la charge cognitive des développeurs, un objectif que l’IA peut considérablement faire avancer si elle est implémentée correctement. Cette synergie profite non seulement aux développeurs individuels, mais à l’ensemble de l’organisation logicielle. Selon l’enquête “Atlassian State of Developer Experience in 2025”, les développeurs utilisent déjà le temps gagné par l’IA pour améliorer le code, développer de nouvelles fonctionnalités et créer de la documentation. Lorsque l’adoption de l’IA axée sur la plateforme est exécutée efficacement, cela conduit à consacrer encore plus de temps aux activités axées sur la valeur.