Les outils d'IA deviennent des menaces : la fin de la défense périmétrique ?

Venturebeat

Le paysage de la cybersécurité subit une profonde transformation, alors que des acteurs étatiques commencent à militariser les outils d’intelligence artificielle, les transformant en puissants instruments d’attaque. Ce changement signale la disparition potentielle des défenses périmétriques traditionnelles, car les technologies d’IA mêmes que les entreprises adoptent pour la productivité pourraient devenir leurs plus graves menaces internes. La preuve de cette nouvelle réalité vient d’Ukraine, où le groupe de piratage parrainé par l’État russe, APT28, déploie activement des malwares alimentés par de grands modèles linguistiques (LLM).

Le mois dernier, l’Équipe de Réponse aux Urgences Informatiques d’Ukraine (CERT-UA) a documenté LAMEHUG, confirmant le premier déploiement réel de malwares alimentés par des LLM. Attribué à APT28, LAMEHUG exploite des identifiants volés pour accéder aux modèles d’IA, spécifiquement des jetons API Hugging Face, afin d’interroger les modèles d’IA en temps réel. Cela permet des attaques dynamiques tout en affichant simultanément du contenu distrayant aux victimes. Vitaly Simonovich, chercheur chez Cato Networks, souligne que ce ne sont pas des incidents isolés, mais plutôt une sonde des défenses cybernétiques ukrainiennes qui reflète les menaces auxquelles les entreprises du monde entier sont de plus en plus confrontées.

Simonovich a offert une démonstration frappante à VentureBeat, révélant comment tout outil d’IA d’entreprise peut être réaffecté en une plateforme de développement de malwares en moins de six heures. Sa preuve de concept a réussi à convertir les principaux LLM d’OpenAI, Microsoft, DeepSeek et d’autres en voleurs de mots de passe fonctionnels. Il est crucial de noter que cela a été réalisé en utilisant une technique qui contourne sans effort tous les contrôles de sécurité actuels intégrés dans ces systèmes d’IA.

Cette convergence rapide d’acteurs étatiques déployant des malwares alimentés par l’IA et de chercheurs démontrant les vulnérabilités inhérentes des outils d’IA d’entreprise coïncide avec une adoption explosive de l’IA. Le rapport sur les menaces Cato CTRL 2025 indique une augmentation significative de l’utilisation des outils d’IA dans plus de 3 000 entreprises. Notamment, des plateformes majeures comme Copilot, ChatGPT, Gemini, Perplexity et Claude ont vu leurs taux d’adoption augmenter respectivement de 34 %, 36 %, 58 %, 115 % et 111 % entre le T1 et le T4 de 2024.

LAMEHUG d’APT28 illustre la nouvelle anatomie de la guerre de l’IA, opérant avec une efficacité effrayante. Le malware est généralement livré via des e-mails de phishing se faisant passer pour des responsables ukrainiens, contenant des fichiers exécutables autonomes. Lors de l’exécution, LAMEHUG se connecte à l’API de Hugging Face en utilisant environ 270 jetons volés pour interroger le modèle Qwen2.5-Coder-32B-Instruct. La stratégie trompeuse du groupe emploie une conception à double usage : tandis que les victimes consultent des documents gouvernementaux ukrainiens d’apparence légitime sur la cybersécurité, LAMEHUG exécute simultanément des commandes générées par l’IA pour la reconnaissance du système et la collecte de données. Une deuxième variante, plus provocante, affiche des images générées par l’IA de « femmes nues aux cheveux bouclés » pour distraire davantage les victimes pendant l’exfiltration de données. Simonovich, né en Ukraine et possédant une vaste expérience en cybersécurité israélienne, a noté : « La Russie a utilisé l’Ukraine comme champ de bataille pour tester ses cyberarmes. C’est le premier cas capturé dans la nature. »

La démonstration de Simonovich à la Black Hat souligne pourquoi les tactiques d’APT28 devraient alerter chaque leader de la sécurité des entreprises. Sans aucune expérience préalable en codage de malwares, il a transformé des outils d’IA grand public en usines de malwares en utilisant une technique d’ingénierie narrative qu’il appelle « Monde Immersif ». Cette méthode exploite une faiblesse fondamentale dans les contrôles de sécurité des LLM : si les requêtes malveillantes directes sont bloquées, peu, voire aucun, modèle d’IA n’est conçu pour résister à une narration soutenue. Simonovich a créé un monde fictif où le développement de malwares était une forme d’art, a assigné un rôle de personnage à l’IA, puis a progressivement orienté les conversations vers la production de code d’attaque fonctionnel. Grâce à des sessions de débogage itératives, où l’IA affinait le code sujet aux erreurs, Simonovich a obtenu un voleur de mots de passe Chrome fonctionnel en six heures. L’IA, croyant qu’elle aidait à écrire un roman de cybersécurité, n’a jamais réalisé qu’elle créait un malware.

Aggravant encore la menace, l’émergence d’un marché souterrain florissant pour les capacités d’IA non censurées. Simonovich a découvert plusieurs plateformes, telles que Xanthrox AI, qui offre une interface identique à ChatGPT, dépourvue de contrôles de sécurité, pour 250 dollars par mois. Pour illustrer son manque de garde-fous, Simonovich a tapé une demande d’instructions sur les armes nucléaires, et la plateforme a immédiatement commencé des recherches web et fourni des conseils détaillés. Une autre plateforme, Nytheon AI, a révélé encore moins de sécurité opérationnelle, offrant une version affinée et non censurée de Meta Llama 3.2. Ce ne sont pas de simples preuves de concept ; ce sont des entreprises opérationnelles complètes avec traitement des paiements, support client et mises à jour régulières des modèles, offrant même des clones de « Claude Code » optimisés pour la création de malwares.

L’adoption rapide de l’IA dans des secteurs comme le divertissement (augmentation de 58 % au T1-T2 2024), l’hôtellerie (43 %) et le transport (37 %) signifie que ce ne sont pas des programmes pilotes mais des déploiements de production gérant des données sensibles. Les CISO et les leaders de la sécurité de ces industries sont désormais confrontés à des méthodologies d’attaque qui n’existaient pas il y a un an à dix-huit mois. De manière troublante, les réponses des fournisseurs aux divulgations de Cato concernant la technique du « Monde Immersif » ont été incohérentes, allant d’une remédiation de plusieurs semaines par Microsoft à un silence complet de DeepSeek et un manque d’engagement d’OpenAI. Google a refusé d’examiner le code en raison d’échantillons similaires. Cela révèle une lacune préoccupante en matière de préparation à la sécurité parmi les entreprises mêmes qui construisent ces plateformes d’IA omniprésentes.

Le déploiement de LAMEHUG par APT28 contre l’Ukraine n’est pas un avertissement ; c’est une preuve opérationnelle de la recherche de Simonovich. La barrière d’expertise traditionnelle pour développer des attaques de niveau étatique a pratiquement disparu. Les statistiques sont frappantes : 270 jetons API volés alimentent les attaques étatiques, des capacités identiques sont disponibles pour 250 dollars par mois sur les plateformes souterraines, et tout outil d’IA d’entreprise peut être transformé en un malware fonctionnel en six heures sans aucun codage requis, simplement par manipulation conversationnelle. Les armes sont déjà à l’intérieur de chaque organisation, déguisées en outils de productivité.