La supervision des travailleurs, clé de la promesse économique de l'IA

Theguardian

Le discours émergent autour de l’intelligence artificielle la présente souvent comme une force inévitable, prête à offrir une prospérité économique sans précédent. Pourtant, un contre-argument crucial suggère que cette révolution technologique ne produira de réels avantages que si elle augmente les capacités humaines plutôt que de simplement les remplacer. Cette perspective, défendue par le lauréat du prix Nobel Daron Acemoglu, postule que la véritable mesure du succès de l’IA réside dans sa capacité à autonomiser les travailleurs, et non pas seulement à automatiser leurs tâches.

Alors que l’industrie technologique et diverses entités économiques annoncent fréquemment l’IA, en particulier les systèmes avancés comme les grands modèles linguistiques et les robots prédictifs, comme une voie rapide vers la richesse, la recherche d’Acemoglu dépeint un tableau plus nuancé. Il soutient que lorsqu’une nouvelle technologie se contente de déplacer le travail humain, elle peut certes augmenter les profits des entreprises, mais offre des gains économiques plus larges minimes. Le dividende collectif, argumente-t-il, n’est réalisé que lorsque les travailleurs ne sont pas seulement des utilisateurs passifs de nouveaux outils, mais des participants actifs à leur conception, façonnant de nouvelles connexions, marchés et capacités.

Les applications pratiques de cette théorie ont donné des résultats convaincants. Par exemple, des tests menés par l’UTS Human Technology Institute ont révélé que les infirmières adoptaient facilement l’IA pour simplifier leur lourde paperasse, mais traçaient une ligne ferme en ce qui concerne l’intervention directe auprès des patients. De même, les employés de commerce de détail ont bien accueilli les systèmes d’inventaire intelligents tout en s’efforçant de préserver l’élément humain dans les relations clients. Même les fonctionnaires, méfiants des erreurs algorithmiques passées comme le scandale Robodebt, ont cherché à s’assurer que l’IA ne serait pas utilisée comme une arme contre les citoyens. Ces exemples soulignent un thème constant : les travailleurs adoptent l’IA lorsqu’elle allège leur fardeau et améliore leurs rôles, mais résistent lorsqu’elle menace leur autonomie professionnelle ou la qualité de l’interaction humaine.

Pour favoriser un écosystème d’IA qui enrichit véritablement la société, une réforme structurelle significative est nécessaire : l’établissement obligatoire de “conseils de travailleurs” chargés de superviser, de contrôler et de façonner l’introduction des technologies d’IA. Cette approche étendrait le devoir général de diligence existant des employeurs en matière de sécurité au travail pour englober le déploiement de nouvelles technologies. Pour remplir ce devoir élargi, les employeurs seraient tenus d’engager véritablement leur main-d’œuvre, en offrant des opportunités de tester, d’affiner, de proposer des garanties et de définir des limites claires pour l’utilisation de l’IA. Ces conseils, de nature démocratique et représentative, seraient dotés des informations nécessaires pour comprendre la technologie, de l’autorité pour observer son application et d’un rôle continu dans l’évaluation de son impact. Dans les environnements syndiqués, les processus consultatifs existants pourraient être mis à profit, tandis que dans d’autres, les employeurs ou les organismes industriels devraient établir des cadres réellement responsables.

Comme on peut s’y attendre, de telles propositions se heurtent souvent à des résistances. Les employeurs peuvent déplorer une augmentation de la “bureaucratie” ou la percevoir comme un abandon de contrôle. Cependant, impliquer activement les travailleurs ne consiste pas à concéder du pouvoir ; il s’agit de mobiliser des connaissances inestimables sur le terrain. L’histoire des transformations technologiques est riche en échecs, non pas parce que la technologie elle-même était défectueuse, mais parce qu’elle était mal adaptée aux réalités du travail humain. Supposer que l’IA est exempte de cette dynamique est une dangereuse erreur propagée par les fournisseurs. L’industrie technologique, elle aussi, pourrait s’y opposer, arguant que toute “friction” au changement étouffe l’innovation dans la “course mondiale à l’IA”. Pourtant, compte tenu du bilan de l’industrie – des algorithmes exploiteurs aux plateformes de médias sociaux qui ont abdiqué leurs responsabilités – il existe un scepticisme public palpable qui exige une approche plus prudente et démocratiquement contrôlée.

Les Australiens, en particulier, nourrissent de profondes réserves à l’égard de l’IA, la percevant comme une force externe imposée pour un bien commun mal défini. L’établissement de nouvelles structures démocratiques, comme les conseils d’IA, pourrait procurer un sentiment d’action très nécessaire, permettant aux citoyens d’influencer la manière dont ces outils évoluent, la manière dont leurs données – la ressource centrale alimentant l’IA – sont collectées et utilisées, et la manière dont ils sont rémunérés pour leur contribution. Il ne s’agit pas seulement de réglementer la technologie ; il s’agit de définir le type de nation que nous aspirons à être. Si l’IA est véritablement une technologie transformatrice, quasi-divine, capable d’offrir le nirvana économique, alors l’intégration de structures démocratiques dans son développement est le chemin le plus sûr pour gagner la confiance du public, une confiance qui a été sévèrement mise à l’épreuve par les promesses passées d’utopie technologique.