Gouvernance de l'IA 2025: Menaces, Lacunes et Supervision Humaine

Hackernoon

L’enquête 2025 sur la gouvernance de l’IA, fruit d’une collaboration entre PacificAI et Gradient Flow, met en lumière les défis croissants de cybersécurité posés par l’intégration rapide de l’IA dans tous les secteurs. Elle souligne un consensus croissant parmi les professionnels et les passionnés : une gouvernance efficace des systèmes d’IA émergents est primordiale. L’enquête approfondit les problèmes auxquels les organisations sont actuellement confrontées et décrit des stratégies pour renforcer les défenses contre ces risques évolutifs.

L’une des révélations les plus alarmantes de l’enquête est la sophistication croissante des menaces basées sur l’IA. Les experts en cybersécurité sont de plus en plus préoccupés par le fait que l’IA donne du pouvoir aux pirates informatiques, un rapport frappant indiquant que les outils de craquage de mots de passe basés sur l’IA ont contourné un stupéfiant 81% des combinaisons de mots de passe courantes en moins de 30 jours. Ce paysage de menaces croissant est particulièrement inquiétant étant donné que l’enquête révèle que seulement 54% des organisations possèdent un plan de réponse aux incidents spécifique à l’IA, laissant beaucoup d’entre elles vulnérables à des dommages significatifs en cas d’attaque basée sur l’IA. Positivement, cependant, les trois quarts des entreprises ont une politique d’utilisation de l’IA en place, signalant une reconnaissance émergente du besoin critique de protection et de planification proactive, même si la mise en œuvre nécessite encore des ajustements.

Ces défis sont aggravés par l’équilibre délicat entre l’automatisation et la supervision humaine. Les organisations sont fréquemment confrontées à un déficit de main-d’œuvre de 5% à 10% dans l’économie, ce qui peut entraver leur capacité à doter adéquatement les équipes de sécurité à mesure qu’elles se développent. Bien que l’IA offre une évolutivité, une dépendance excessive aux systèmes de sécurité automatisés sans une supervision humaine suffisante risque de favoriser la complaisance et d’augmenter par inadvertance les vulnérabilités aux piratages. L’enquête a révélé que si 48% des répondants ont indiqué que leurs organisations surveillent l’utilisation et la précision des systèmes d’IA, les leaders techniques et les PDG s’accordent largement sur le fait qu’une supervision humaine robuste reste une préoccupation critique. L’intégration de l’intelligence humaine aux systèmes automatisés, peut-être par des revues par les pairs avant le déploiement du modèle ou un échantillonnage régulier des sorties pour en vérifier la précision, peut aider à aborder les préoccupations éthiques et à identifier les menaces que l’IA pourrait manquer, empêchant ainsi des précédents dangereux établis par une dépendance excessive à la machine.

L’environnement réglementaire entourant la gouvernance de l’IA est en constante évolution. En mai 2025, plus de 69 pays ont introduit plus d’un millier de politiques liées à l’IA, reflétant un éveil mondial aux préoccupations de gouvernance. Malgré la dépendance de l’IA à de vastes ensembles de données, l’utilisation non réglementée des données crée des vulnérabilités significatives. L’enquête a mis en évidence un manque préoccupant de compréhension fondamentale, en particulier parmi les petites entreprises, avec seulement 14% des employés comprenant les bases du cadre de gestion des risques de l’IA du NIST, une directive cruciale pour la protection de la vie privée. En outre, la compréhension des normes mondiales telles que l’ISO/IEC 42001 pour les systèmes de gestion de l’IA est vitale pour les professionnels de la technologie afin de mettre en œuvre des contrôles d’accès robustes, des filtres de validation, la confidentialité différentielle et l’apprentissage fédéré – des techniques essentielles pour la protection des systèmes et la préservation des preuves médico-légales. Une menace émergente particulièrement insidieuse est l’« empoisonnement des données », où des acteurs malveillants manipulent les données d’entraînement pour dégrader la fiabilité des modèles d’apprentissage automatique, introduisant des biais, des résultats inexacts et même des points d’accès dérobés pour une exploitation future.

Un thème omniprésent dans l’enquête est l’appel urgent à une plus grande transparence dans les systèmes d’IA. Le potentiel inhérent des modèles d’IA à produire des résultats biaisés ou imprévisibles nécessite une intervention humaine pour identifier et atténuer les problèmes futurs. Pourtant, cette poussée vers la transparence présente un paradoxe : en révéler trop sur le fonctionnement interne d’une IA pourrait involontairement fournir aux cyberattaquants de nouvelles voies d’exploitation. La recherche a également identifié des lacunes critiques dans les étapes ultérieures du modèle ; alors que la planification, les données et la modélisation reçoivent de l’attention, le déploiement et la supervision voient souvent les professionnels se fier excessivement aux résultats de l’IA, avec moins d’intervention humaine. Cette dépendance est périlleuse, comme en témoignent les résultats selon lesquels 73% des implémentations d’agents IA sont excessivement permissives dans la portée de leurs identifiants, et 61% des organisations ne sont pas sûres de ce à quoi leurs systèmes automatisés accèdent réellement. Adopter des outils pour auditer les systèmes en direct est crucial pour prévenir les violations et maîtriser les systèmes autonomes qui, laissés sans contrôle, pourraient déclencher des scénarios autrefois confinés à la science-fiction.

Une partie de la solution réside dans le mouvement émergent du « shift-left », qui préconise l’intégration des pratiques de sécurité dès le début du cycle de vie du développement. Alors que de nombreuses entreprises élaborent des politiques, l’enquête indique un retard dans l’intégration de la sécurité des opérations d’apprentissage automatique (MLOps) dans les flux de travail quotidiens. Les leaders techniques, bien qu’désireux de tirer parti de l’IA générative pour de meilleures stratégies, manquent fréquemment de main-d’œuvre qualifiée ou de formation pour exécuter ces initiatives. Cet écart souligne la demande croissante de professionnels de la cybersécurité possédant des compétences avancées en matière de surveillance, d’outils de gouvernance et de conception de réponses aux incidents. Le constat de l’enquête selon lequel seulement 41% des entreprises proposent une formation annuelle en IA, les petites organisations étant les plus en retard, souligne un déficit critique. Le perfectionnement des compétences dans des domaines tels que l’audit de modèles, la sécurité MLOps, la familiarité avec les cadres et l’évaluation des risques est primordial. L’encouragement de pratiques telles que le « red-teaming » des systèmes d’IA (tests adverses), la veille sur les nouveaux ensembles d’outils et la participation à des plateformes de formation ouvertes peuvent aider à cultiver l’expertise nécessaire, souvent en faisant appel à des « chasseurs de primes de bugs » externes ou à des hackers éthiques pour identifier et signaler de manière proactive les vulnérabilités avant que des acteurs malveillants ne les exploitent. L’intégration de la gouvernance de l’IA dans les flux de travail quotidiens est essentielle pour prévenir les incidents coûteux et les atteintes à la réputation.

L’enquête 2025 sur la gouvernance de l’IA délivre un message clair : malgré l’adoption généralisée de l’IA, les organisations de toutes tailles ne parviennent pas à gérer efficacement les risques associés. Les résultats servent d’appel urgent aux PDG, aux leaders techniques et aux professionnels de l’informatique pour qu’ils exigent une surveillance et une gouvernance des données plus robustes, tout en investissant simultanément dans l’amélioration des compétences de leur personnel actuel. Alors que l’IA poursuit sa croissance inexorable, les entreprises doivent développer l’agilité nécessaire pour s’adapter et faire face aux nouvelles menaces potentielles, tout en maintenant la rentabilité.