Les États-Unis pionniers de la régulation de l'IA face à l'inaction fédérale
En l’absence d’une législation fédérale complète, les législatures des États américains sont devenues l’arène principale pour établir des réglementations autour des technologies d’intelligence artificielle. Cette approche décentralisée a gagné en dynamisme suite à l’échec significatif au Congrès d’un moratoire proposé sur la régulation de l’IA au niveau des États, ouvrant ainsi la voie aux États pour continuer à développer leurs propres cadres. En effet, les 50 États ont introduit divers projets de loi liés à l’IA en 2025, et plusieurs ont déjà promulgué des législations.
Les efforts réglementaires au niveau des États se regroupent principalement autour de quatre aspects critiques de l’IA : son utilisation par le gouvernement, les applications dans le secteur de la santé, les technologies de reconnaissance faciale et le domaine en plein essor de l’IA générative.
La supervision et le déploiement responsable de l’IA sont particulièrement vitaux dans le secteur public. L’IA prédictive, qui exploite l’analyse statistique pour la prévision, a transformé de nombreuses fonctions gouvernementales, de l’évaluation de l’éligibilité aux services sociaux à l’information des recommandations sur les peines de justice pénale et la libération conditionnelle. Cependant, l’adoption généralisée de la prise de décision algorithmique entraîne des coûts cachés substantiels, y compris le potentiel de préjudices algorithmiques tels que les biais raciaux et de genre. Reconnaissant ces risques, les législatures des États ont introduit des projets de loi ciblant spécifiquement l’utilisation de l’IA dans le secteur public, mettant l’accent sur la transparence, la protection des consommateurs et l’identification des risques de déploiement. Certains États, comme le Colorado avec sa loi sur l’intelligence artificielle, imposent des exigences de transparence et de divulgation pour les développeurs et les déployeurs de systèmes d’IA impliqués dans des décisions importantes. La nouvelle loi du Montana sur le “Droit de calculer” exige quant à elle que les développeurs d’IA adoptent des cadres de gestion des risques robustes — des méthodes structurées pour aborder la sécurité et la confidentialité — pour les systèmes intégrés aux infrastructures critiques. D’autres États, comme New York, ont établi des organismes dédiés pour assurer la supervision et l’autorité réglementaire.
Le secteur de la santé a également connu une effervescence législative. Rien qu’au premier semestre 2025, 34 États ont introduit plus de 250 projets de loi sur la santé liés à l’IA, généralement répartis en quatre catégories. Les projets de loi axés sur la transparence définissent les exigences de divulgation pour les développeurs de systèmes d’IA et les organisations de déploiement. Les projets de loi sur la protection des consommateurs visent à prévenir les pratiques discriminatoires par les systèmes d’IA et à garantir aux utilisateurs des voies pour contester les décisions basées sur l’IA. La législation aborde également l’utilisation de l’IA par les assureurs pour les approbations et les paiements de soins de santé, tandis que d’autres projets de loi réglementent l’application de la technologie par les cliniciens dans le diagnostic et le traitement des patients.
Les technologies de reconnaissance faciale et de surveillance présentent des défis significatifs en matière de confidentialité et des risques de biais, en particulier dans le contexte d’une doctrine juridique de longue date aux États-Unis qui défend l’autonomie individuelle contre l’ingérence gouvernementale. Communément utilisés dans la police prédictive et la sécurité nationale, les logiciels de reconnaissance faciale ont démontré des biais contre les personnes de couleur, soulevant des préoccupations pour les libertés civiles. Des recherches pionnières menées par les informaticiennes Joy Buolamwolini et Timnit Gebru ont mis en évidence que de tels logiciels sont significativement moins susceptibles d’identifier correctement les visages plus foncés. Les biais peuvent également imprégner les données d’entraînement de ces algorithmes, souvent exacerbés par un manque de diversité au sein des équipes de développement elles-mêmes. Fin 2024, 15 États américains avaient promulgué des lois pour atténuer les préjudices potentiels de la reconnaissance faciale, les réglementations incluant souvent des exigences pour les fournisseurs de publier des rapports de tests de biais, de détailler les pratiques de gestion des données et d’assurer une révision humaine dans l’application de ces technologies.
L’adoption généralisée de l’IA générative a également suscité l’attention législative dans de nombreux États. La loi sur la politique d’intelligence artificielle de l’Utah exigeait initialement des individus et des organisations qu’ils divulguent l’utilisation de l’IA lors des interactions s’ils étaient interrogés, bien que sa portée ait été par la suite restreinte aux interactions impliquant des conseils ou la collecte d’informations sensibles. L’année dernière, la Californie a adopté la loi AB 2013, une loi sur l’IA générative exigeant que les développeurs publient des informations sur leurs sites web concernant les données utilisées pour entraîner leurs systèmes d’IA, y compris les modèles fondamentaux. Ces modèles fondamentaux sont des modèles d’IA entraînés sur des ensembles de données exceptionnellement grands, adaptables à un large éventail de tâches sans entraînement supplémentaire. Étant donné que les développeurs d’IA ont historiquement été réticents à divulguer leurs données d’entraînement, une telle législation pourrait apporter la transparence tant nécessaire, aidant potentiellement les titulaires de droits d’auteur dont le contenu est utilisé dans l’entraînement de l’IA.
En l’absence d’un cadre fédéral complet, les États sont intervenus pour combler ce vide réglementaire avec leurs propres initiatives législatives. Bien que ce patchwork émergent de lois puisse compliquer les efforts de conformité pour les développeurs d’IA, de nombreux observateurs soutiennent que l’engagement au niveau des États offre une supervision cruciale et nécessaire pour la vie privée, les droits civiques et la protection des consommateurs. Cependant, ce progrès décentralisé fait face à des vents contraires potentiels. Le “Plan d’action IA” de l’administration Trump, annoncé en juillet 2025, a déclaré que le financement fédéral lié à l’IA ne devrait pas être dirigé vers les États ayant des réglementations IA “lourdes”. Cette position pourrait entraver les efforts des États pour réglementer l’IA, forçant les États à peser les réglementations essentielles contre le risque de perdre des financements fédéraux vitaux.