Le plan IA "tout compris" du gouvernement américain : Gros risques

Sciencenews

Le gouvernement des États-Unis s’engage dans une ambitieuse «stratégie axée sur l’IA», visant à intégrer profondément l’intelligence artificielle dans ses fonctions essentielles. Cette poussée significative, illustrée par un plan d’action récemment dévoilé le 23 juillet, signale un virage complet vers l’exploitation de l’IA dans toutes les agences fédérales. De récentes initiatives soulignent cet engagement, notamment l’attribution par le Département de la Défense de contrats d’une valeur de 200 millions de dollars à des entreprises d’IA de premier plan comme Anthropic, Google, OpenAI et xAI. Notamment, xAI d’Elon Musk a lancé «Grok for Government», une plateforme conçue pour faciliter l’acquisition de produits d’IA par les agences fédérales via la General Services Administration.

Un pilier central de cette stratégie implique l’agrégation de vastes quantités de données gouvernementales sensibles. Des rapports indiquent que le groupe consultatif connu sous le nom de Département de l’efficacité gouvernementale a déjà commencé à accéder et à consolider des informations personnelles, des dossiers de santé, des détails fiscaux et d’autres données protégées provenant de divers départements fédéraux, y compris le Département du Trésor et les Affaires des Anciens Combattants. L’objectif ultime est d’accumuler ces diverses informations dans une base de données centralisée unique.

Bien que la recherche d’efficacité soit claire, cette adoption rapide de l’IA, en particulier avec des informations sensibles, a suscité d’importantes préoccupations parmi les experts concernant les risques potentiels pour la vie privée et la cybersécurité. Ces inquiétudes sont amplifiées à mesure que les garde-fous de précaution traditionnels, tels que des limites strictes à l’accès aux données, semblent se relâcher.

Bo Li, expert en IA et sécurité à l’Université de l’Illinois Urbana-Champaign, souligne le danger immédiat de fuite de données. Lorsque les modèles d’IA sont entraînés ou affinés à l’aide d’informations confidentielles, ils peuvent les mémoriser par inadvertance. Par exemple, un modèle entraîné sur des données de patients pourrait non seulement répondre à des requêtes générales sur la prévalence des maladies, mais pourrait également révéler par inadvertance les conditions de santé, les numéros de carte de crédit, les adresses e-mail ou les adresses de domicile d’individus spécifiques. De plus, de telles informations privées, si elles sont utilisées pour l’entraînement ou comme référence pour générer des réponses, pourraient permettre à l’IA d’inférer de nouvelles connexions potentiellement dommageables entre des éléments de données personnelles disparates.

Jessica Ji, experte en IA et cybersécurité au Centre pour la sécurité et les technologies émergentes de l’Université de Georgetown, souligne que la consolidation des données provenant de diverses sources en un seul grand ensemble de données crée une cible irrésistible pour les acteurs malveillants. Au lieu de devoir enfreindre plusieurs agences individuelles, un pirate pourrait potentiellement compromettre une seule source de données consolidée, obtenant ainsi l’accès à un trésor d’informations sans précédent. Historiquement, les organisations américaines ont délibérément évité de lier les informations personnellement identifiables, telles que les noms et adresses, aux conditions de santé sensibles. Aujourd’hui, la consolidation des données gouvernementales pour l’entraînement de l’IA introduit des risques majeurs pour la vie privée. La capacité des systèmes d’IA à établir des liens statistiques au sein de grands ensembles de données, en particulier ceux contenant des informations financières et médicales, pose des défis abstraits mais profonds pour les libertés civiles et la vie privée. Les individus pourraient être affectés négativement sans jamais comprendre comment ces impacts sont liés au système d’IA.

Li développe davantage sur les cyberattaques spécifiques qui deviennent possibles. Une «attaque par adhésion» permet à un attaquant de déterminer si les données d’une personne particulière ont été incluses dans l’ensemble de données d’entraînement du modèle. Une «attaque par inversion de modèle» plus sévère va au-delà de la simple adhésion, permettant à l’attaquant de reconstruire un enregistrement entier à partir des données d’entraînement, révélant potentiellement l’âge, le nom, l’e-mail et même le numéro de carte de crédit d’une personne. Le plus alarmant, une «attaque de vol de modèle», implique l’extraction des composants ou paramètres centraux du modèle d’IA, qui pourraient ensuite être utilisés pour divulguer des données supplémentaires ou reproduire le modèle à des fins néfastes.

Bien que des efforts soient en cours pour sécuriser ces modèles avancés, une solution complète reste insaisissable. Li note que les «modèles de garde-fou» peuvent agir comme un pare-feu d’IA, identifiant et filtrant les informations sensibles dans les entrées et les sorties. Une autre stratégie, le «désapprentissage», vise à entraîner les modèles à oublier des informations spécifiques. Cependant, le désapprentissage peut dégrader les performances du modèle et ne peut garantir l’effacement complet des données sensibles. De même, les modèles de garde-fou nécessitent un développement continu et de plus en plus sophistiqué pour contrer l’évolution des attaques et des vecteurs de fuite d’informations. Comme le conclut Li, «il y a des améliorations du côté de la défense, mais pas encore de solution complète.»

Au-delà des défis techniques, les risques organisationnels et liés aux processus sont également importants. Ji souligne que la pression pour adopter rapidement l’IA vient souvent d’en haut, ce qui exerce une pression immense sur le personnel de niveau inférieur pour qu’il mette en œuvre des systèmes rapidement sans tenir suffisamment compte des ramifications potentielles. Cela peut entraîner un manque de contrôle et de visibilité sur la façon dont les données circulent en interne. Par exemple, si une agence n’a pas de politiques claires interdisant aux employés d’utiliser des chatbots IA commerciaux, les travailleurs pourraient par inadvertance saisir des codes sensibles ou des données internes dans ces plateformes externes pour obtenir de l’aide. Ces données pourraient alors être ingérées par le fournisseur du chatbot pour ses propres besoins de formation, créant un risque d’exposition invisible et incontrôlé.

Les experts recommandent universellement de prioriser la sécurité comme primordiale. Ji conseille d’adapter les processus de gestion des risques existants à la nature unique des outils d’IA, soulignant que les organisations doivent évaluer minutieusement les risques et les avantages. Li insiste sur la nécessité immédiate d’associer chaque modèle d’IA à un garde-fou comme mécanisme de défense fondamental. De plus, le «red teaming» continu – où des hackers éthiques simulent des attaques pour découvrir des vulnérabilités – est crucial pour identifier de nouvelles faiblesses au fil du temps. Alors que le gouvernement américain mise «tout» sur l’IA, l’impératif d’équilibrer l’innovation avec des mesures de sécurité et de confidentialité robustes n’a jamais été aussi critique.