L'IA européenne: la protection des travailleurs, un atout compétitif?

Thenextweb

L’Europe se forge un chemin distinct dans le développement de l’intelligence artificielle, en priorisant des cadres réglementaires robustes et la protection des travailleurs, ce qui contraste fortement avec l’approche largement libérale observée aux États-Unis. Cette stratégie, bâtie sur des législations existantes comme la Loi sur la protection des données et le RGPD, et consolidée par la récente Loi sur l’IA, vise à aligner l’adoption de l’IA avec les lois du travail locales et les intérêts syndicaux.

La susceptibilité du continent à l’impact transformateur de l’IA sur l’emploi est significative. Une étude conjointe de l’Organisation internationale du Travail (OIT) et de l’Institut national de recherche de Pologne (NASK) a identifié l’Europe, aux côtés de l’Asie, comme les régions les plus exposées à l’IA, dépassant de loin les Amériques. Avec des estimations mondiales suggérant qu’un emploi sur quatre est menacé par la transformation liée à l’IA, les implications pour l’Europe – une région déjà aux prises avec une pénurie de travailleurs qualifiés – sont une préoccupation pressante.

« Il est trop tôt pour dire où la vague de l’IA nous mènera », a commenté Adam Maurer, COO chez Connecting Software, une entreprise technologique européenne. Il a noté que si l’IA promet des capacités passionnantes, son impact total reste à voir. Ces dernières années, de grandes entreprises technologiques ont procédé à des licenciements massifs, souvent citant des préoccupations de revenus ou la conviction que l’IA peut automatiser de nombreuses fonctions de niveau débutant à intermédiaire. Bien que certaines de ces réductions d’effectifs axées sur l’IA aient ciblé des employés peu performants, d’autres se sont avérées problématiques. La fintech suédoise Klarna, par exemple, a notoirement licencié 700 travailleurs pour intégrer l’IA, avant de réembaucher du personnel humain, son PDG admettant que cette décision était une « erreur ».

Maurer estime que si l’IA remplacera sans aucun doute certains emplois, elle élèvera simultanément la valeur d’autres. En Europe, les lois et réglementations du travail sont sur le point de façonner significativement cette évolution, de nombreux leaders technologiques étant optimistes quant à leur capacité à favoriser un avenir de l’IA bénéfique tant pour les employés que pour les entreprises.

Le dialogue des dirigeants sur la réglementation

Le débat entre les dirigeants concernant la réglementation de l’IA est nuancé. Maurer a exprimé sa crainte qu’une réglementation excessive du déplacement d’emplois ne freine la croissance et ne dissuade les startups de s’établir dans l’UE. Cependant, tous les chefs d’entreprise ne sont pas d’accord. Volodymyr Kubytskyi, responsable de l’IA chez MacPaw, une entreprise de logiciels ukrainienne, soutient que le déplacement est inévitable, non seulement à cause de l’IA, mais parce que l’IA perturbe fondamentalement les processus de travail traditionnels. Il a souligné la nécessité pour les dirigeants de repenser le travail plutôt que de considérer l’IA simplement comme un outil de gain rapide ou de réduction des coûts.

Kubytskyi a reconnu la nécessité de la Loi sur l’IA pour établir une base pour l’industrie, mais a souligné son lacune perçue dans la gestion des perturbations potentielles de l’emploi. Il a suggéré que des mises à jour sont nécessaires, bien qu’il estime qu’elles sont peu probables dans un avenir proche. Roman Eloshvili, fondateur de la firme de conformité britannique ComplyControl, a fait écho à cela, déclarant que si la Loi sur l’IA aborde la sécurité, la transparence et l’éthique, elle est insuffisante en matière d’impact socio-économique, en particulier concernant les emplois. Il anticipe que de futurs amendements exigeront des entreprises qu’elles mènent des programmes de perfectionnement professionnel et des protections pour les travailleurs déplacés.

Inversement, Kris Jones, qui dirige l’équipe d’ingénierie à Belfast pour iVerify, estime qu’il est prématuré de modifier la Loi sur l’IA. Il affirme que son cadre basé sur les risques établit déjà un équilibre délicat entre la protection des droits fondamentaux et la promotion de l’innovation. Jones a également souligné d’autres idées politiques circulant parmi les États membres, telles qu’une « taxe sur les jetons d’IA ». Ce concept, également défendu par le PDG d’Anthropic, Dario Amodei, propose de taxer l’utilisation de l’IA qui génère des revenus, les recettes étant ensuite redistribuées via des programmes de reconversion professionnelle ou un soutien aux industries affectées. De telles mesures, a noté Amodei, pourraient amortir les chocs sur l’emploi sans entraver l’innovation.

Gérer les relations de travail

Les syndicats et organisations syndicales européennes, souvent négligés dans le discours plus large sur le déplacement d’emplois par l’IA, ont exprimé vocalement leurs préoccupations. Avant le Sommet de Paris sur l’IA en février 2025, la CES (Confédération Européenne des Syndicats), représentant plus de 45 millions de travailleurs européens, a publié une lettre ouverte avertissant que l’impact positif de l’IA sur les travailleurs et la société pourrait être annulé si la technologie est monopolisée par quelques géants de la technologie. De même, des syndicats britanniques comme Accord et Unite ont appelé à des réglementations pour protéger les travailleurs de l’IA, plaidant pour des programmes de reconversion, des obligations de transparence des entreprises et des consultations syndicales obligatoires, en particulier concernant l’embauche et le licenciement basés sur l’IA, et la protection des droits de propriété intellectuelle pour les professionnels de la création.

Les entreprises technologiques anticipent des défis pour naviguer dans ces lois du travail robustes et ces syndicats actifs en Europe. Eloshvili de ComplyControl a confirmé cela, déclarant que les protections des travailleurs européens représentent à la fois une sauvegarde et un défi pour l’intégration de l’IA. Il s’attend à ce que les syndicats exigent la transparence et la participation des travailleurs à mesure que l’automatisation menace les emplois, avertissant que les entreprises tentant d’imposer des solutions d’IA sans dialogue risquent des conflits. Cependant, il estime que ce n’est pas un jeu à somme nulle ; la collaboration, telle que des initiatives conjointes de perfectionnement, peut transformer l’IA en un outil d’amélioration des conditions de travail.

Kubytskyi de MacPaw a convenu que la résistance des syndicats est compréhensible. Il a souligné le rôle critique de la clarté, de la structure et de la communication. « Si vous intégrez de nouveaux agents [IA] dans des flux de travail existants sans impliquer les gens, vous obtiendrez de la résistance, et pour une bonne raison », a-t-il déclaré, insistant sur la nécessité de démontrer le but de l’IA, ses sauvegardes et ses avantages pour l’équipe. Jorge Rieto, PDG de Dataco, une société de conseil en big data et IA, a abondé dans ce sens, soulignant que les déploiements efficaces d’IA sont stratégiques et nécessitent une analyse minutieuse des tâches les mieux adaptées à la décharge par l’IA.

Développer l’IA à la « manière européenne »

Kris Jones d’iVerify a soutenu que les réglementations strictes de l’Europe, les syndicats puissants et les droits solides des travailleurs ne sont pas nécessairement des entraves, mais pourraient, en fait, être avantageux. Il a suggéré qu’en intégrant des pratiques d’IA responsables – y compris les vérifications de biais, l’explicabilité et la supervision humaine – dans chaque cycle de produit, les entreprises peuvent transformer la Loi sur l’IA d’un simple obstacle de conformité en un différenciateur de marché.

L’Europe est confrontée à une concurrence significative dans le paysage mondial de l’IA, étant à la traîne par rapport aux États-Unis (qui représentent environ la moitié des licornes de l’IA mondiales et 80 % du financement de la GenAI) ainsi qu’aux pôles technologiques émergents en Asie et en Amérique latine. Mahesh Raja, PDG de Ness Digital Engineering, a noté que le manque d’investissements comparables en Europe nuit aux entreprises, 53 % des PME trouvant les coûts de mise en œuvre de l’IA plus élevés que prévu et luttant avec des infrastructures informatiques héritées.

Cependant, l’environnement réglementaire strict de l’Europe pourrait devenir une « marque premium » pour les secteurs où la confiance et la confidentialité des données sont primordiales, tels que la banque et les soins de santé. Jones estime que l’Europe ne devrait pas simplement imiter la Silicon Valley. Au lieu de cela, le continent devrait tirer parti de ses atouts uniques : un nombre élevé de diplômés en doctorat STEM par habitant, un engagement envers une IA axée sur la confidentialité et la sécurité solidifié par la réglementation, une gouvernance éthique, un savoir-faire industriel approfondi et des viviers de talents transfrontaliers.

« Dans l’ensemble, l’Europe devrait pousser fort sur l’augmentation de l’IA et le développement des compétences, sinon nous prendrons encore plus de retard », a conclu Jones. « Mais faites-le à la manière européenne, en tirant parti de notre gouvernance éthique, de notre savoir-faire industriel approfondi et de nos viviers de talents transfrontaliers au lieu d’importer en gros la culture du ‘blitz-and-break’ de la Vallée. » En adoptant ses valeurs distinctes, l’Europe vise à transformer la protection des travailleurs et une réglementation robuste en un avantage concurrentiel, favorisant un écosystème d’IA centré sur l’humain.