L'IA revoit son propre code : percée sécuritaire ou paradoxe ?

Thenewstack

L’introduction récente par Anthropic de fonctionnalités de revue de sécurité automatisées pour sa plateforme Claude Code a suscité une discussion significative parmi les experts en technologie. Cette initiative est largement considérée comme une étape cruciale vers le “développement natif de l’IA”, tout en soulevant des questions sur ses implications pour les outils de sécurité traditionnels et la nature même du code généré par l’IA.

Ces nouvelles capacités, qui incluent une commande /security-review basée sur un terminal et l’analyse automatisée des demandes de tirage (pull requests) GitHub, représentent un changement substantiel, selon Abhishek Sisodia, directeur de l’ingénierie chez Scotiabank. Il les considère comme un moment crucial dans l’évolution vers le développement natif de l’IA, soulignant leur potentiel à transformer la sécurité d’une mesure réactive en une partie inhérente du processus de développement. Sisodia souligne que la réalisation de vérifications de sécurité au stade de la demande de tirage, plutôt que seulement lors des tests d’intrusion traditionnels ou des audits trimestriels, permet d’identifier et de rectifier les vulnérabilités beaucoup plus tôt, lorsque leur correction est la moins coûteuse. Cette approche, explique-t-il, signifie que les développeurs n’ont plus besoin d’être eux-mêmes des experts en sécurité, car Claude peut signaler les vulnérabilités courantes comme les injections SQL, les scripts intersites et les failles d’authentification directement dans le code, suggérant même des remèdes.

Glenn Weinstein, PDG de Cloudsmith, a fait écho à ce sentiment, saluant la “mentalité de sécurité dès la conception” d’Anthropic. Il a noté que ces fonctionnalités complètent le rôle des plateformes de gestion d’artefacts dans l’analyse et l’identification des vulnérabilités connues au sein des dépendances de paquets binaires. Weinstein a souligné l’importance de la détection précoce, déclarant que la détection des problèmes bien avant les fusions de demandes de tirage et les builds d’intégration continue/livraison continue (CI/CD) est le scénario idéal.

Cependant, la prolifération rapide des outils de développement basés sur l’IA a également soulevé des inquiétudes. Brad Shimmin, analyste chez The Futurum Group, pointe deux risques principaux : la création de logiciels qui n’ont pas été rigoureusement vérifiés pour la sécurité, la performance ou la conformité, et le potentiel des systèmes d’IA à générer un nombre écrasant de “demandes de tirage superficielles” qui sont frivoles ou inexactes. David Mytton, PDG d’Arcjet, a souligné un défi fondamental, observant que la capacité de l’IA à accélérer l’écriture de code signifie que plus de code sera produit par des individus moins expérimentés, ce qui entraînera inévitablement plus de problèmes de sécurité. Bien qu’il considère les revues de sécurité automatisées comme une sauvegarde précieuse contre les problèmes de sécurité “à portée de main” comme les secrets exposés ou les bases de données mal sécurisées, Mytton a également posé une question provocante : “Si elle revoit son propre code généré par l’IA, alors il y a quelque chose d’étrange à ce qu’une IA se revoie elle-même ! Pourquoi ne pas simplement faire en sorte que le modèle évite les problèmes de sécurité en premier lieu ?”

Matt Johansen, expert en cybersécurité et fondateur de Vulnerable U, a partagé des réserves similaires quant aux limitations inhérentes d’une IA qui revoit sa propre sortie. Il a reconnu le potentiel de l’IA à exploiter un contexte ou des outils supplémentaires, mais a souligné que ses capacités restent contraintes par sa propre conception. Malgré ces mises en garde, Johansen a exprimé son optimisme quant à l’intégration directe des fonctionnalités de sécurité par les fournisseurs dans leurs produits, y voyant un signe positif que la sécurité est reconnue comme une valeur ajoutée plutôt qu’un obstacle.

Le lancement a également suscité un débat sur ses implications pour les entreprises d’outils de sécurité traditionnelles. Sisodia a suggéré un paysage concurrentiel en évolution, arguant que si les plateformes natives de l’IA comme Claude peuvent exécuter les fonctions des outils conventionnels de test de sécurité des applications statiques et dynamiques (SAST/DAST) plus rapidement, de manière plus rentable et avec une intégration plus profonde dans les flux de travail des développeurs, la barre de l’industrie a été considérablement relevée. Il a prédit que les fournisseurs de sécurité établis devraient réévaluer l’expérience utilisateur, l’intégration des développeurs et la manière dont ils superposent de la valeur au-delà de la simple détection.

Johansen, cependant, a minimisé les menaces existentielles pour l’industrie de la sécurité, comparant la situation à la façon dont les outils de sécurité intégrés de Microsoft n’ont pas nié la nécessité de systèmes de détection et de réponse des points de terminaison (EDR). Il a souligné que les problèmes complexes nécessiteront toujours des solutions spécialisées. Weinstein a renforcé ce point de vue, soulignant que la prévention des vulnérabilités d’atteindre les systèmes de production nécessite une approche multicouche, examinant non seulement le code source, mais aussi les paquets de langage, les conteneurs, les bibliothèques du système d’exploitation et d’autres dépendances binaires.

Shimmin considère l’initiative d’Anthropic comme un catalyseur potentiel pour un changement industriel plus large, établissant des parallèles avec la façon dont les travaux antérieurs d’Anthropic sur la transparence des modèles ont influencé d’autres efforts de soutien. Sisodia voit ces fonctionnalités comme plus qu’une simple mise à jour de produit ; pour lui, elles signifient l’émergence de la “sécurité logicielle axée sur l’IA”, évoluant vers un avenir où la “sécurité par défaut” n’est pas une aspiration, mais un résultat naturel du codage avec le bon assistant IA.

Bien que les experts expriment généralement leur optimisme quant aux outils de sécurité basés sur l’IA, il existe un consensus selon lequel aucune solution unique ne résoudra tous les défis de sécurité. L’accent mis par Weinstein sur une approche multicouche reflète la conviction plus large de l’industrie en matière de défense en profondeur. La question à l’avenir n’est pas de savoir si l’IA jouera un rôle dans la sécurité logicielle – cela semble clair – mais comment les fournisseurs de sécurité traditionnels s’adapteront et quels nouveaux problèmes surgiront à mesure que l’IA continuera de redéfinir le paysage du développement. Comme l’a si bien dit Johansen, les développeurs adopteront ces outils d’IA de toute façon, ce qui rend impératif que des garanties appropriées soient intégrées dès le départ, plutôt que d’être ajoutées ultérieurement. La réaction de l’industrie aux nouvelles fonctionnalités de sécurité d’Anthropic souligne la nécessité pour les outils de sécurité d’évoluer rapidement à mesure que l’IA accélère le développement de logiciels.