Utilisation secrète de l'IA au travail : l'Australie a besoin de règles claires pour freiner l''IA de l'ombre'
Une partie significative des travailleurs australiens emploie secrètement des outils d’intelligence artificielle générative (IA Gen) dans leur travail, souvent à l’insu ou sans l’approbation explicite de leurs employeurs, selon un récent rapport du gouvernement fédéral. Le rapport « Notre transition vers l’IA Gen : Implications pour le travail et les compétences », publié par Jobs and Skills Australia, cite de multiples études indiquant qu’entre 21 % et 27 % des employés, en particulier dans les secteurs tertiaires, utilisent l’IA derrière le dos de leurs managers.
Cette adoption clandestine présente un paradoxe frappant. Alors que le trésorier fédéral et la Commission de productivité encouragent activement les Australiens à embrasser le potentiel de l’IA, de nombreux travailleurs se sentent contraints de dissimuler leur utilisation. Les raisons courantes citées dans le rapport incluent la perception que l’utilisation de l’IA constitue de la « tricherie », ainsi que la peur d’être perçu comme paresseux ou moins compétent.
La montée de cette « utilisation de l’ombre » non approuvée de l’IA met en lumière des lacunes importantes dans la gouvernance actuelle de l’IA sur les lieux de travail australiens, laissant les employés et les employeurs incertains quant à la conduite appropriée. Bien que cette expérimentation menée par les travailleurs puisse parfois servir de moteur caché à l’innovation ascendante, en particulier dans les secteurs où les premiers adoptants émergent comme des leaders non officiels, elle introduit également des risques substantiels. Le rapport avertit que sans une gouvernance claire, cette expérimentation informelle, bien que source d’innovation, peut fragmenter les pratiques, les rendant difficiles à étendre ou à intégrer ultérieurement. Surtout, elle intensifie les préoccupations concernant la sécurité des données, la responsabilité, la conformité et le potentiel de résultats incohérents.
En effet, des exemples concrets soulignent le potentiel de défaillances graves découlant d’une utilisation non réglementée de l’IA. Dans l’État de Victoria, un incident frappant a vu une travailleuse de la protection de l’enfance saisir des détails sensibles de cas concernant des délits sexuels contre un jeune enfant dans ChatGPT. Cela a conduit le commissaire à l’information de Victoria à interdire au personnel de protection de l’enfance de l’État d’utiliser des outils d’IA jusqu’en novembre 2026. Les avocats ont également fait l’objet d’un examen minutieux pour l’utilisation abusive de l’IA, avec des cas documentés provenant des États-Unis, du Royaume-Uni et d’Australie, y compris un rapport récent impliquant des informations trompeuses générées par l’IA pour une affaire de meurtre à Melbourne. Pourtant, même au sein de la profession juridique, les règles restent fragmentées et divergent considérablement d’un État à l’autre. Alors qu’un avocat de Nouvelle-Galles du Sud est désormais explicitement interdit d’utiliser l’IA pour générer ou modifier le contenu des affidavits, d’autres États et territoires n’ont pas adopté de positions aussi claires, laissant un paysage réglementaire fragmenté même pour les professions ayant des obligations éthiques critiques.
Cette incohérence souligne l’appel urgent du rapport à une gestion nationale de la transition de l’Australie vers l’IA générative. Il préconise un cadre national coordonné, une capacité centralisée et un renforcement national des compétences numériques et en IA. Cela s’aligne sur des recherches plus larges indiquant que le cadre juridique actuel de l’IA en Australie contient d’importants angles morts, nécessitant une refonte fondamentale de nos systèmes de connaissances. En l’absence d’une politique nationale aussi complète, les employeurs sont contraints de naviguer dans un environnement réglementaire fragmenté et souvent contradictoire, augmentant le risque d’infractions. Bien qu’une législation nationale uniforme pour l’IA offrirait une approche cohérente, reflétant la nature sans frontières de la technologie elle-même, sa mise en œuvre semble actuellement peu probable.
Compte tenu de ce paysage complexe, les employeurs cherchant à freiner l’utilisation secrète de l’IA doivent établir de manière proactive des politiques plus claires et offrir une formation complète. Les directives écrites émergentes, bien qu’imparfaites, au sein de certaines juridictions légales servent de première étape. Cependant, la solution ultime réside dans une gouvernance nationale de l’IA plus robuste et proactive. Cela impliquerait des politiques claires, des lignes directrices éthiques, des évaluations des risques et un suivi de la conformité, offrant la clarté indispensable aux travailleurs et aux employeurs. Sans cette approche unifiée, les employés mêmes qui pourraient stimuler la transformation de l’IA en Australie pourraient continuer à opérer dans l’ombre, accablés par la peur d’être jugés paresseux ou malhonnêtes, plutôt que d’être habilités en tant qu’innovateurs.