Cybersécurité Santé & IA : Naviguer entre Risques et Stratégies

Feedburner

L’intelligence artificielle, en particulier avec l’essor des plateformes d’IA générative, est rapidement passée d’applications techniques spécialisées à une utilisation généralisée par les consommateurs. Début 2025, une étude du Pew Research Center a indiqué que 58 % des adultes américains de moins de 30 ans avaient utilisé ChatGPT, une augmentation significative par rapport aux 33 % en 2023. Cette adoption généralisée signifie que les employés sont probablement déjà familiers ou utilisent des services d’IA générative, même sans politiques organisationnelles formelles, souvent en s’appuyant sur des outils accessibles au public. Ce scénario introduit des risques considérables pour la confidentialité et la sécurité des données des organisations.

Aggravant ce défi, les cybercriminels ont également accès à ces outils d’IA avancés, les exploitant pour orchestrer des attaques plus sophistiquées. Par exemple, l’Université de New York a publié des directives à l’intention de sa communauté universitaire, mettant en garde contre les menaces d’ingénierie sociale assistées par l’IA. Alors que l’IA devient une présence de plus en plus omniprésente dans toutes les industries, comprendre son impact profond sur la cybersécurité est crucial, en particulier pour les organisations de soins de santé qui naviguent dans ce paysage en évolution.

L’épée à double tranchant : Les préoccupations liées à l’IA en cybersécurité

Les experts en cybersécurité classent généralement les considérations de sécurité liées à l’IA en trois perspectives : la sécurité avec l’IA, la sécurité pour l’IA et la sécurité contre l’IA. Chacune présente des défis uniques pour les organisations.

  • Sécurité avec l’IA : De nombreuses plateformes de sécurité modernes intègrent désormais des fonctionnalités basées sur l’IA pour une détection et une réponse améliorées aux menaces. Le principal défi pour les organisations consiste à discerner quelles solutions s’intègrent efficacement à leur infrastructure existante et à leurs besoins spécifiques, en s’assurant qu’elles offrent des avantages de sécurité tangibles.

  • Sécurité pour l’IA : Dans le domaine de la santé, des cas d’utilisation de l’IA ont été pilotés et déployés depuis plusieurs années, allant de la vision par ordinateur dans les programmes de soins infirmiers virtuels aux chatbots aidant les cliniciens avec des tâches administratives. Ces applications exigent des mesures de protection strictes. Le National Institute of Standards and Technology (NIST) a mis en garde contre le risque que des acteurs malveillants manipulent délibérément les systèmes d’IA pour provoquer des dysfonctionnements, soulignant le besoin critique de sécuriser les systèmes d’IA eux-mêmes.

  • Sécurité contre l’IA : La préoccupation la plus pressante est peut-être le potentiel des cybercriminels à militariser l’IA. Une enquête ISC2 de 2024 a révélé que les professionnels de la cybersécurité sont profondément préoccupés par l’utilisation de l’IA pour diffuser de la désinformation, avec les deepfakes, les campagnes de désinformation et les attaques d’ingénierie sociale en tête de leur liste de préoccupations. Plus tôt cette année, YouTube a émis un avertissement concernant des e-mails de phishing présentant des clips générés par l’IA de son PDG, illustrant la menace tangible de la tromperie alimentée par l’IA.

Tirer parti de l’IA pour renforcer les défenses de cybersécurité

Malgré les risques inhérents, l’IA offre également des avantages significatifs pour renforcer la cybersécurité. La même enquête ISC2, qui a interrogé plus de 1 000 professionnels de la cybersécurité, a révélé que 82 % d’entre eux étaient d’accord pour dire que l’IA améliorerait l’efficacité de leur travail. Une majorité prévoit que l’IA excellera dans la gestion des fonctions chronophages et de moindre valeur, telles que l’analyse des modèles de comportement des utilisateurs, la surveillance du trafic réseau et la détection des menaces.

Cette capacité est particulièrement vitale pour les organisations de soins de santé confrontées à des pénuries persistantes de personnel, non seulement dans les départements cliniques, mais aussi au sein de leurs équipes de cybersécurité. Selon leur taille et leurs contraintes budgétaires, certains systèmes de santé peuvent manquer de ressources pour une surveillance de sécurité continue et 24 heures sur 24. Dans ces scénarios, les processus automatisés et les services gérés, souvent augmentés par l’IA, peuvent fournir un soutien crucial, permettant une surveillance de sécurité robuste même avec des ressources internes limitées.

En fin de compte, l’établissement de cadres solides de gouvernance de l’IA et des données sera primordial pour les organisations de soins de santé à mesure que ces technologies et processus émergents deviendront plus répandus. Tout comme les équipes cliniques collaborent pour les soins aux patients, les organisations peuvent favoriser une approche multidisciplinaire en travaillant avec des partenaires pour développer des stratégies complètes d’IA et de sécurité, garantissant un environnement numérique résilient et sécurisé.