Loi européenne sur l'IA : Façonner l'innovation et la confiance mondiales
La Loi sur l’intelligence artificielle de l’Union européenne, souvent appelée Loi sur l’IA de l’UE, est décrite par la Commission européenne comme le premier cadre juridique complet au monde pour l’intelligence artificielle. Après des années de développement, cette législation historique entre progressivement en vigueur dans les 27 États membres de l’UE, impactant 450 millions de citoyens. Sa portée s’étend au-delà des frontières de l’UE, s’appliquant aux entreprises locales et étrangères, englobant à la fois les fournisseurs et les déployeurs de systèmes d’IA. Par exemple, la Loi s’appliquerait à un développeur créant un outil de sélection de CV ainsi qu’à une banque qui l’utilise, établissant un cadre juridique unifié pour leurs opérations d’IA.
La motivation principale derrière la Loi sur l’IA de l’UE est d’établir un environnement réglementaire cohérent pour l’IA dans tous les pays de l’UE, empêchant la fragmentation des règles nationales. Cette uniformité vise à faciliter la libre circulation des biens et services basés sur l’IA à travers les frontières. En mettant en œuvre une réglementation opportune, l’UE cherche à créer des conditions équitables pour l’innovation, à favoriser la confiance du public dans les technologies d’IA et, potentiellement, à ouvrir de nouvelles opportunités pour les entreprises émergentes. Malgré le stade relativement précoce de l’adoption généralisée de l’IA, la Loi fixe des normes strictes pour les implications éthiques et sociétales de l’IA.
Les législateurs européens ont articulé les objectifs principaux du cadre comme la promotion d’une “IA centrée sur l’humain et digne de confiance”, tout en assurant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux. Ces droits, consacrés dans la Charte des droits fondamentaux de l’Union européenne, incluent la démocratie, l’état de droit et la protection de l’environnement. La Loi vise également à atténuer les effets néfastes des systèmes d’IA au sein de l’Union et à soutenir l’innovation. Ce mandat ambitieux reflète un équilibre délicat entre l’encouragement de l’adoption et du développement de l’IA, la prévention des dommages et le respect des normes environnementales.
Pour concilier ces divers objectifs, la Loi sur l’IA de l’UE adopte une approche basée sur les risques. Elle catégorise les applications d’IA en différents niveaux de risque, imposant des obligations correspondantes :
Risque Inacceptable : Un petit nombre de cas d’utilisation d’IA sont purement et simplement interdits en raison de leur potentiel de dommages graves.
Risque Élevé : Certaines applications sont identifiées comme “à haut risque” et sont soumises à une réglementation et une surveillance strictes.
Risque Limité : Les scénarios considérés comme “à risque limité” sont soumis à des obligations plus légères, garantissant la proportionnalité.
Le déploiement de la Loi sur l’IA de l’UE a débuté le 1er août 2024, avec des délais de conformité échelonnés dans le temps. Généralement, les nouveaux entrants sur le marché sont soumis à des exigences de conformité plus précoces que les entreprises proposant déjà des produits et services d’IA au sein de l’UE. La première échéance significative est intervenue le 2 février 2025, axée sur l’application des interdictions pour un nombre limité d’utilisations d’IA prohibées, telles que la collecte non ciblée d’images faciales depuis Internet ou la vidéosurveillance pour la création de bases de données. Bien que de nombreuses autres dispositions suivront, la plupart devraient s’appliquer d’ici la mi-2026.
Un développement clé s’est produit le 2 août 2025, lorsque la Loi a commencé à s’appliquer aux “modèles d’IA à usage général (GPAI) présentant un risque systémique”. Les modèles GPAI sont définis comme des modèles d’IA entraînés sur des ensembles de données étendus, capables d’effectuer un large éventail de tâches. L’élément de “risque systémique” fait référence à de potentiels dangers sociétaux généralisés, tels que la facilitation du développement d’armes chimiques ou biologiques, ou des problèmes involontaires de contrôle sur des modèles GPAI autonomes. Avant cette échéance, l’UE a publié des lignes directrices pour les fournisseurs de modèles GPAI, y compris les principaux acteurs mondiaux comme Anthropic, Google, Meta et OpenAI. Cependant, les entreprises ayant des modèles existants sur le marché ont jusqu’au 2 août 2027 pour atteindre une conformité totale, contrairement aux nouveaux entrants sur le marché.
La Loi sur l’IA de l’UE inclut un régime de sanctions robuste conçu pour être “efficace, proportionné et dissuasif”, même pour les grandes entreprises internationales. Bien que les détails spécifiques soient déterminés par chaque pays de l’UE, le règlement énonce les principes généraux et les seuils pour les amendes, qui varient en fonction du niveau de risque jugé de l’infraction. Les pénalités les plus élevées sont réservées aux violations des applications d’IA interdites, pouvant atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial total de l’exercice financier précédent, le montant le plus élevé étant retenu. Les fournisseurs de modèles GPAI peuvent être passibles d’amendes allant jusqu’à 15 millions d’euros ou 3 % de leur chiffre d’affaires annuel.
La volonté de l’industrie de se conformer, même volontairement, est en partie indiquée par l’engagement envers le Code de conduite volontaire pour les GPAI, qui inclut des engagements tels que ne pas entraîner de modèles sur du contenu piraté. En juillet 2025, Meta a notamment annoncé sa décision de ne pas signer ce code volontaire. Inversement, Google a confirmé son intention de le signer peu après, malgré avoir exprimé des réserves. Parmi les autres signataires à ce jour figurent Aleph Alpha, Amazon, Anthropic, Cohere, IBM, Microsoft, Mistral AI et OpenAI. Cependant, la signature du code n’équivaut pas nécessairement à une approbation totale de toutes ses implications.
Certaines entreprises technologiques ont exprimé une forte opposition à certains aspects de la réglementation. Kent Walker, président des affaires mondiales de Google, a exprimé son inquiétude dans un article de blog selon laquelle la Loi sur l’IA et son Code de conduite risquent de “ralentir le développement et le déploiement de l’IA en Europe”. Joel Kaplan, directeur des affaires mondiales de Meta, est allé plus loin, déclarant sur LinkedIn que “l’Europe prend le mauvais chemin en matière d’IA” et critiquant la mise en œuvre de la Loi comme un “excès”. Il a soutenu que le code de conduite introduit des incertitudes juridiques pour les développeurs de modèles et inclut des mesures qui dépassent la portée originale de la Loi. Les entreprises européennes ont également partagé leurs préoccupations ; Arthur Mensch, PDG de la firme française d’IA Mistral AI, faisait partie d’un groupe de PDG européens qui ont signé une lettre ouverte en juillet 2025, exhortant Bruxelles à “arrêter le temps” pendant deux ans avant que les obligations clés de la Loi sur l’IA de l’UE n’entrent en vigueur.
Malgré ces efforts de lobbying, l’Union européenne a réaffirmé son engagement envers le calendrier établi début juillet 2025, procédant avec l’échéance du 2 août 2025 comme prévu.