La réglementation de l'UE pourrait freiner la vision IA de Trump
La vision du président Trump pour les entreprises américaines d’intelligence artificielle est celle d’une contrainte minimale, prônant une approche largement dérégulée du développement de l’IA. Il soutient que pour que les États-Unis l’emportent dans la course mondiale croissante à l’IA, les entreprises technologiques doivent être libérées de réglementations étendues, leur permettant d’innover comme bon leur semble. Cette conviction sous-tend le Plan d’action pour l’IA récemment dévoilé par son administration, qui vise à démanteler ce qu’elle décrit comme des réglementations lourdes qui entravent le progrès. Trump est convaincu que les avantages de la domination américaine dans cette technologie en évolution rapide l’emportent de loin sur les risques potentiels d’une IA non régie, qui, selon les experts, pourraient inclure une surveillance accrue, une désinformation généralisée, voire des menaces existentielles pour l’humanité.
Cependant, Washington ne peut pas protéger unilatéralement les entreprises américaines d’IA des cadres réglementaires mondiaux. Bien que les règles nationales puissent être assouplies, la réalité d’opérer sur les marchés internationaux dicte l’adhésion aux lois locales. Cela signifie que l’Union européenne, un vaste bloc économique fortement engagé dans la réglementation de l’IA, pourrait contester de manière significative la vision techno-optimiste de M. Trump d’un monde dominé par des entreprises américaines autorégulées et de libre marché.
Historiquement, les réglementations numériques de l’Union européenne ont exercé une influence bien au-delà de ses frontières, obligeant les entreprises technologiques à étendre ces règles à leurs opérations mondiales — un phénomène souvent surnommé l’“Effet Bruxelles”. Par exemple, les principaux acteurs comme Apple et Microsoft appliquent désormais largement le Règlement général sur la protection des données (RGPD) de l’UE, qui accorde aux utilisateurs un plus grand contrôle sur leurs données, comme leur norme de confidentialité mondiale. Cela est en partie dû au coût prohibitif et à la complexité de maintenir des politiques de confidentialité disparates pour chaque marché. De plus, d’autres gouvernements consultent fréquemment les réglementations de l’UE lors de la formulation de leurs propres lois régissant le secteur technologique.
Une dynamique similaire est susceptible de se produire avec l’intelligence artificielle. Au cours de la dernière décennie, l’UE a méticuleusement élaboré des réglementations conçues pour équilibrer l’innovation en IA avec la transparence et la responsabilité. Au cœur de cet effort se trouve l’Acte sur l’IA, la première loi sur l’intelligence artificielle complète et juridiquement contraignante au monde, qui est officiellement entrée en vigueur en août 2024. Cette législation historique établit des garanties cruciales contre les dangers potentiels de l’IA, abordant des préoccupations telles que l’érosion de la vie privée, la discrimination, la désinformation et les systèmes d’IA qui pourraient mettre en péril la vie humaine s’ils n’étaient pas contrôlés. Par exemple, la loi restreint l’utilisation de la technologie de reconnaissance faciale pour la surveillance et limite le déploiement d’IA potentiellement biaisées dans des domaines critiques comme le recrutement ou les décisions de crédit. Les développeurs américains cherchant à accéder au lucratif marché européen devront se conformer à ces réglementations et à d’autres à venir.
La réponse de l’industrie à ces réglementations imminentes a été mitigée. Certaines entreprises, telles que Meta, ont ouvertement accusé l’UE d’excès de réglementation, sollicitant même le soutien de l’administration Trump pour s’opposer à l’ambitieux programme réglementaire de l’Europe. Inversement, d’autres géants technologiques, y compris OpenAI, Google et Microsoft, ont commencé à s’aligner sur le code de conduite volontaire de l’UE en matière d’IA. Ces entreprises perçoivent un avantage inhérent à cette approche : coopérer avec l’Union européenne pourrait favoriser la confiance des utilisateurs, anticiper de futurs défis réglementaires et rationaliser leurs politiques opérationnelles mondiales. De plus, les États américains individuels envisageant leur propre gouvernance de l’IA, comme l’a fait la Californie avec ses lois sur la confidentialité, pourraient se tourner vers les règles de l’UE comme modèle pratique.
En défendant fermement ses principes réglementaires, l’Europe vise à guider le développement mondial de l’IA vers des modèles qui protègent les droits fondamentaux, garantissent l’équité et soutiennent les valeurs démocratiques. Une position aussi ferme renforcerait également le secteur technologique national de l’Europe en favorisant une concurrence plus équitable entre les entreprises d’IA étrangères et européennes, toutes soumises aux lois de l’UE.
Cependant, la détermination de l’Europe fait face à une pression considérable, tant externe qu’interne. M. Trump a accusé à plusieurs reprises l’Europe de mettre en œuvre des politiques commerciales et numériques qui ciblent injustement les entreprises américaines. Récemment, le vice-président JD Vance a publiquement qualifié l’Acte sur l’IA d’“excessif”, avertissant qu’une surréglementation étouffe l’innovation, tandis que le Comité judiciaire de la Chambre, dirigé par les Républicains, a allégué que l’Europe utilisait les règles de modération de contenu comme instruments de censure. Les décideurs politiques européens eux-mêmes craignent que Washington n’impose des tarifs supplémentaires ou ne retire les garanties de sécurité si l’Europe ne cède pas sur la réglementation technologique.
Malgré ces pressions, l’Europe est restée résolue, affirmant que l’Acte sur l’IA et les autres règles numériques ne sont pas négociables. Lors d’un récent accord commercial entre les États-Unis et l’UE, Bruxelles a accepté d’augmenter ses achats d’énergie et d’équipements militaires américains, mais n’a fait aucune concession concernant la réglementation technologique. Les législateurs européens comprennent qu’abandonner ces lois numériques largement soutenues entraînerait des coûts politiques importants, tant au niveau national qu’international, ce qui pourrait faire apparaître l’UE comme faible. De plus, tout accord visant à démanteler la gouvernance de l’IA serait vulnérable aux caprices changeants d’une future administration Trump.
L’Europe doit également faire face à la dissidence interne. Certains décideurs politiques européens expriment une inquiétude croissante concernant la réglementation, en particulier après la publication du “rapport Draghi”, un examen historique de la compétitivité européenne. Ce rapport, entre autres critiques, a mis en évidence le lent développement de l’IA en Europe et a identifié une réglementation lourde comme un obstacle à l’innovation technologique. Poussés par un désir légitime de reconstruire la souveraineté technologique de l’Europe, un nombre croissant d’entreprises et de législateurs européens plaident désormais pour un assouplissement des règles de l’UE en matière d’IA.
Il est crucial de noter que la réglementation et l’innovation en matière d’IA ne sont pas des objectifs mutuellement exclusifs. Le retard de l’Europe dans la course mondiale à l’IA, par rapport aux États-Unis et à la Chine, découle principalement de faiblesses fondamentales au sein de son écosystème technologique — telles que des marchés numériques et de capitaux fragmentés, des lois sur la faillite punitives et des défis pour attirer les talents mondiaux — plutôt que de réglementations numériques. Même la Chine soumet ses développeurs d’IA à des règles contraignantes, certaines reflétant l’agenda autoritaire de Pékin, comme les mandats contre la subversion de la censure. Pourtant, d’autres garanties chinoises, visant la sécurité, l’équité et la transparence (telles que les politiques sur les droits de propriété intellectuelle pour les données d’entraînement), indiquent que Pékin ne considère pas la gouvernance de l’IA comme un obstacle inhérent à l’innovation.
En effet, le programme de déréglementation de M. Trump apparaît de plus en plus comme une anomalie parmi les grandes démocraties mondiales. La Corée du Sud a récemment promulgué sa propre version de l’Acte sur l’IA, et d’autres nations, y compris l’Australie, le Brésil, le Canada et l’Inde, développent activement des lois sur l’intelligence artificielle pour atténuer les risques de la technologie. Le recul américain d’une gouvernance robuste de l’IA est un revers pour ceux qui s’inquiètent des risques individuels et sociétaux de l’intelligence artificielle. Il sape la collaboration précédente entre les États-Unis et l’UE sur les politiques numériques et crée une ouverture pour la Chine et d’autres régimes autocratiques afin de promouvoir leurs normes numériques autoritaires. Cependant, ce moment présente également à l’Europe une opportunité unique d’assumer un rôle de premier plan dans la formation de la technologie du futur — une responsabilité qu’elle devrait embrasser, plutôt que d’abandonner par apaisement ou par peur mal placée.