L'IA en cybersécurité : Bouclier des défenseurs ou lance des attaquants ?
Lors de la récente conférence Black Hat, un événement majeur du « Hacker Summer Camp » annuel, un débat clé a émergé concernant le rôle évolutif de l’intelligence artificielle en cybersécurité : favorise-t-elle actuellement les défenseurs ou les attaquants ? Mikko Hyppönen, alors chef de la recherche pour la société de sécurité finlandaise WithSecure, a présenté une vision optimiste, quoique temporaire, suggérant que l’IA donne actuellement un avantage aux défenseurs.
« Je crois que l’IA est la clé [en matière de sécurité] car c’est l’un des rares domaines où les défenseurs ont une longueur d’avance sur les attaquants », a déclaré Hyppönen à l’auditoire. Il a souligné que si les entreprises de cybersécurité intègrent massivement l’IA générative dans leurs produits, les attaquants commencent tout juste à exploiter cette technologie, les attaques actuelles basées sur l’IA restant relativement simplistes. Pour illustrer, Hyppönen a noté qu’en 2024, aucun système d’IA n’était publiquement connu pour avoir découvert des vulnérabilités zero-day – des failles logicielles critiques inconnues des développeurs. Cependant, d’ici la mi-2025, les chercheurs avaient déjà identifié environ deux douzaines de ces vulnérabilités à l’aide de l’analyse par grands modèles de langage (LLM), toutes ayant été corrigées depuis. Il a averti qu’à mesure que les hackers emploieront de plus en plus l’IA pour la recherche, d’autres découvertes seront inévitables.
Une perspective contrastée est venue de Nicole Perlroth, ancienne correspondante de sécurité au New York Times et désormais partenaire chez Silver Buckshot Ventures. Lors d’une keynote ultérieure à Black Hat, elle a prédit que d’ici l’année prochaine, l’avantage se déplacerait probablement vers l’IA offensive. Perlroth a également souligné l’important déficit de talents dans l’industrie de la sécurité aux États-Unis, citant 500 000 postes vacants – une statistique qui a provoqué un rire amer de la part d’un public très conscient du marché du travail difficile.
Tout au long de la semaine, les experts du secteur, y compris les fournisseurs, les testeurs d’intrusion et ceux en première ligne de la sécurité, ont exprimé un mélange d’optimisme et de scepticisme concernant la contribution de l’IA. Si beaucoup sont positifs quant à son potentiel, il existe une préoccupation omniprésente que l’avantage défensif actuel ne durera pas indéfiniment. De manière critique, personne interrogé n’anticipe que les systèmes d’IA soient capables d’attaquer des réseaux de manière autonome avant au moins une décennie.
Les présentations de la conférence ont fréquemment abordé les outils d’IA pour le « red teaming » – simuler des attaques pour tester les défenses réseau. Cependant, le consensus était que ces outils ne sont pas encore entièrement fiables et sont sujets à des erreurs fondamentales en cas de mauvaise utilisation. Charles Henderson, vice-président exécutif de la cybersécurité chez Coalfire, a souligné que si son entreprise utilise des outils d’IA, leur efficacité est sévèrement limitée sans supervision humaine. Il a déclaré que « correctement dirigée, l’IA fait environ 60 % du travail », ce qui la rend excellente pour alléger la charge de travail humaine mais impropre à la prise en charge de missions entières. Henderson a expliqué que l’IA excelle dans la détection des failles, mais que son implémentation efficace est primordiale ; le simple déploiement d’outils d’IA sans guidance humaine stratégique est inutile, un point souvent négligé par ceux qui surestiment ses capacités. Chris Yule, directeur de la recherche sur les menaces chez Sophos Cyber Threat Unit, a fait écho à ce sentiment, suggérant que l’IA devrait augmenter les compétences humaines plutôt que les remplacer, les systèmes d’apprentissage automatique ayant besoin d’objectifs clairs et limités et d’une guidance humaine pour une utilisation optimale. Cette approche du red teaming fournit également des informations précieuses sur la manière dont les futurs criminels pourraient exploiter ces systèmes, permettant à la communauté de la sécurité de modéliser et de prévenir les attaques potentielles.
Sur le front défensif, le gouvernement américain, par l’intermédiaire de la Defense Advanced Research Projects Agency (DARPA), investit activement dans l’IA en tant qu’outil de protection. La DARPA a récemment alloué 8,5 millions de dollars à trois équipes participant à son AI Cyber Challenge, un concours de deux ans visant à créer des systèmes d’IA capables d’identifier et de corriger des vulnérabilités sans provoquer d’instabilité réseau. Cette compétition éprouvante a réduit 42 équipes à sept, l’effort collaboratif gagnant étant composé de chercheurs de pointe de Georgia Tech, Samsung Research, du Korea Advanced Institute of Science & Technology (KAIST) et de la Pohang University of Science and Technology (POSTECH). Lors du concours, les systèmes d’IA ont réussi à découvrir 54 et à corriger 43 des 70 vulnérabilités délibérément introduites. Plus impressionnant encore, ils ont identifié de manière autonome 18 vulnérabilités supplémentaires – six en C et douze en Java – et ont réussi à en corriger 11. Le code développé à partir de ce défi est désormais open-source, et d’autres concours sont prévus pour l’avenir. Par ailleurs, des sources ont noté l’aptitude particulière de l’IA à repérer les vulnérabilités SQL, une faille courante, probablement en raison de vastes données d’entraînement.
Une préoccupation majeure parmi les participants était l’impact potentiel de l’IA sur le marché de l’emploi. Alors que certaines entreprises ont réduit leur personnel de sécurité, notamment pour les postes de débutants, d’autres affirment que le manque de talents existant n’est toujours pas résolu. Chris Yule de Sophos a soutenu que l’impact de l’IA sur les emplois de sécurité a été surestimé, suggérant qu’elle est parfois utilisée comme prétexte marketing pour des licenciements. Il a affirmé que si l’IA a ses usages, le remplacement de segments entiers de la main-d’œuvre de sécurité n’est pas actuellement faisable, et ne le sera peut-être jamais. Un CISO anonyme a acquiescé, déclarant : « Vous ne dépasserez jamais le facteur humain. [Les systèmes d’IA] sont bons pour traiter les données, mais l’ingéniosité humaine est difficile à vendre pour le moment, mais cela pourrait changer. Mais je fais plus confiance à mes codeurs qu’à une IA. »
Pour l’instant, l’IA sert d’outil d’augmentation puissant en cybersécurité. À mesure que les modèles continuent de s’améliorer, le paysage futur reste très fluide, et les experts hésitent à faire des prédictions définitives quant à sa trajectoire finale.