IA : Les États-Unis Pionniers de la Réglementation Face à l'Inaction Fédérale

Fastcompany

En l’absence d’une supervision fédérale complète, les législatures des États américains sont devenues les principaux champs de bataille pour l’établissement de réglementations concernant les technologies d’intelligence artificielle. Cette approche décentralisée a pris un nouvel élan après la défaite décisive au Congrès d’une proposition de moratoire sur la réglementation de l’IA au niveau des États, ouvrant ainsi la voie aux États pour continuer à aborder le paysage technologique en pleine croissance. En effet, d’ici 2025, chaque État américain aura introduit une forme de législation liée à l’IA, et plusieurs ont déjà promulgué des lois. Quatre aspects spécifiques de l’IA ont particulièrement attiré l’attention des législateurs des États : son utilisation par le gouvernement, les applications dans les soins de santé, les technologies de reconnaissance faciale et l’essor de l’IA générative.

Le déploiement et la supervision responsables de l’IA sont particulièrement critiques dans le secteur public. L’IA prédictive, qui exploite l’analyse statistique pour générer des prévisions, a déjà transformé de nombreuses fonctions gouvernementales, de la détermination de l’éligibilité aux services sociaux à l’orientation des recommandations pour les peines et la libération conditionnelle en matière de justice pénale. Cependant, l’adoption généralisée de la prise de décision algorithmique entraîne des coûts cachés significatifs, y compris le potentiel de préjudices algorithmiques tels que les biais raciaux et de genre. Reconnaissant ces risques, les législatures des États ont introduit des projets de loi ciblant spécifiquement l’utilisation de l’IA dans le secteur public, mettant l’accent sur la transparence, des protections robustes pour les consommateurs et une reconnaissance claire des risques de déploiement. Par exemple, la loi sur l’intelligence artificielle du Colorado impose des exigences de transparence et de divulgation aux développeurs et aux déployeurs de systèmes d’IA impliqués dans des décisions importantes. La nouvelle loi du Montana sur le “Droit de Calcul” oblige les développeurs d’IA à adopter des cadres de gestion des risques – méthodes structurées pour aborder la sécurité et la confidentialité – pour les systèmes intégrés dans les infrastructures critiques. En outre, certains États, comme New York avec son projet de loi SB 8755, ont pris des mesures pour établir des organismes dédiés dotés d’une autorité de supervision et de réglementation.

Le secteur de la santé a également connu une effervescence législative, avec 34 États introduisant plus de 250 projets de loi sur la santé liés à l’IA rien qu’au premier semestre 2025. Ces projets de loi se répartissent généralement en quatre catégories : exigences de divulgation pour les développeurs et les déployeurs de systèmes d’IA, mesures de protection des consommateurs conçues pour prévenir la discrimination injuste et garantir des voies de contestation des décisions basées sur l’IA, réglementations régissant l’utilisation de l’IA par les assureurs pour les approbations et les paiements de soins de santé, et règles pour l’utilisation de l’IA par les cliniciens dans le diagnostic et le traitement des patients.

Les technologies de reconnaissance faciale et de surveillance présentent des défis de confidentialité et des risques de biais distincts, en particulier compte tenu de la doctrine juridique de longue date aux États-Unis de protection de l’autonomie individuelle contre l’ingérence gouvernementale. Largement utilisé dans la police prédictive et la sécurité nationale, le logiciel de reconnaissance faciale a démontré des biais contre les personnes de couleur. Une étude fondamentale des informaticiennes Joy Buolamwini et Timnit Gebru a révélé que ces logiciels étaient significativement moins susceptibles d’identifier correctement les visages plus foncés, soulignant des défis profonds pour les individus noirs et d’autres minorités historiquement défavorisées. Ce biais découle souvent de la composition des données d’entraînement et du manque de diversité au sein des équipes développant ces algorithmes. Fin 2024, 15 États américains avaient promulgué des lois pour atténuer les préjudices potentiels de la reconnaissance faciale, certaines réglementations exigeant des fournisseurs qu’ils publient des rapports de tests de biais et détaillent leurs pratiques de gestion des données, tout en imposant un examen humain dans l’application de ces technologies. Les conséquences réelles de ces biais sont flagrantes, comme l’illustre l’arrestation injustifiée de Porcha Woodruff en 2023, basée uniquement sur une technologie de reconnaissance faciale défectueuse.

La propagation omniprésente de l’IA générative a également suscité des inquiétudes chez les législateurs des États. La loi sur la politique d’intelligence artificielle de l’Utah exigeait initialement une divulgation claire lorsque des systèmes d’IA générative étaient utilisés pour interagir avec des personnes qui s’interrogeaient sur l’implication de l’IA, bien que la portée ait été par la suite réduite aux interactions impliquant des conseils ou la collecte d’informations sensibles. L’année dernière, la Californie a adopté l’AB 2013, une loi sur l’IA générative qui oblige les développeurs à divulguer publiquement sur leurs sites web des informations sur les données utilisées pour entraîner leurs systèmes d’IA, y compris les “modèles fondationnels” – des modèles d’IA entraînés sur de vastes ensembles de données adaptables à diverses tâches sans entraînement supplémentaire. Étant donné que les développeurs d’IA ont toujours été réticents concernant leurs données d’entraînement, une telle législation pourrait renforcer les propriétaires de droits d’auteur dont le contenu est utilisé pour entraîner des modèles d’IA en favorisant une plus grande transparence.

En l’absence d’un cadre fédéral cohérent, les États ont proactivement tenté de combler le fossé réglementaire par leurs propres efforts législatifs. Bien que ce patchwork émergent de lois puisse compliquer la conformité pour les développeurs d’IA, il fournit une supervision cruciale et indispensable concernant la vie privée, les droits civiques et la protection des consommateurs. Cependant, ce progrès mené par les États est confronté à un obstacle potentiel : le “Plan d’Action IA” de l’administration Trump, annoncé le 23 juillet 2025. Le plan stipule explicitement que “Le gouvernement fédéral ne devrait pas permettre que les fonds fédéraux liés à l’IA soient dirigés vers des États ayant des réglementations IA lourdes.” Cette directive pourrait potentiellement entraver les efforts des États pour réglementer l’IA, les forçant à peser les réglementations essentielles contre le risque de perdre un financement fédéral vital.