IA: le rêve de productivité coûte cher et cache des défis

Theconversation

La promesse de l’intelligence artificielle de révolutionner la productivité au travail a été un récit dominant, activement promu par les principales entreprises technologiques, les géants du conseil et même les gouvernements désireux de stimuler la croissance économique. En effet, le gouvernement fédéral australien est sur le point d’organiser une table ronde sur la réforme économique, avec l’IA en bonne place à l’ordre du jour. Pourtant, un examen plus approfondi de l’impact réel de l’IA suggère que le chemin vers les gains de productivité est loin d’être simple, s’avérant souvent complexe, coûteux et semé de défis imprévus.

Des recherches en cours, tirant des enseignements de hauts fonctionnaires du service public victorien directement impliqués dans l’acquisition, l’utilisation et l’administration des services d’IA, révèlent un ensemble constant de préoccupations. Leurs expériences indiquent que l’intégration des outils d’IA dans les flux de travail existants exige un travail préparatoire organisationnel important, qui est à la fois difficile et coûteux. De plus, la mesure des avantages réels reste insaisissable, tandis que l’adoption de l’IA introduit souvent de nouveaux risques et problèmes pour la main-d’œuvre.

La mise en œuvre des outils d’IA est fréquemment une entreprise lente et gourmande en ressources. Les organisations sont confrontées à des obstacles considérables pour allouer le temps et le budget nécessaires à la recherche de produits adaptés et à la reconversion du personnel. Cette barrière financière affecte de manière disproportionnée les petites entités ; tandis que les organisations bien financées peuvent se permettre de mener des projets pilotes et de tester diverses applications d’IA, celles disposant de ressources limitées luttent souvent avec les coûts substantiels associés au déploiement et à la maintenance des systèmes d’IA. Comme l’a décrit avec justesse un participant, tenter de mettre en œuvre une IA sophistiquée avec un budget contraint peut donner l’impression de « conduire une Ferrari avec un budget plus petit », conduisant souvent à des solutions dont le fonctionnement est prohibitivement coûteux et difficile à prendre en charge, bien qu’elles soient mal adaptées aux opérations plus petites.

Au-delà de l’investissement initial, rendre l’IA vraiment utile nécessite un travail de fond approfondi, particulièrement en ce qui concerne les données. Si les applications d’IA prêtes à l’emploi comme Copilot ou ChatGPT peuvent simplifier des tâches relativement simples — telles que l’extraction d’informations à partir de grands ensembles de données ou la transcription et la synthèse de réunions — des applications plus complexes, comme les chatbots avancés de centres d’appels ou les systèmes internes de récupération de connaissances, dépendent de l’entraînement des modèles d’IA avec les données internes d’une organisation. La qualité des résultats dépend entièrement de données de haute qualité et bien structurées, et les organisations assument la responsabilité de toute erreur. Cependant, de nombreuses organisations n’ont pas encore réalisé les investissements nécessaires dans la qualité des données pour garantir que les produits d’IA commerciaux fonctionnent comme annoncé. Sans ce travail préparatoire crucial, les outils d’IA ne tiendront tout simplement pas leurs promesses, ce qui souligne le sentiment que « les données sont le travail difficile ».

L’adoption de l’IA introduit également des risques significatifs en matière de confidentialité et de cybersécurité. Les systèmes d’IA créent des flux de données complexes entre une organisation et les serveurs d’entreprises technologiques multinationales. Bien que les grands fournisseurs d’IA assurent généralement la conformité avec les lois sur la résidence des données et s’engagent à ne pas utiliser les données des clients pour l’entraînement de modèles, les utilisateurs expriment souvent leur scepticisme quant à la fiabilité de ces promesses. Il y a aussi une appréhension considérable quant à la manière dont les fournisseurs pourraient introduire de nouvelles fonctionnalités d’IA sans notification transparente, créant potentiellement de nouveaux flux de données qui contournent les évaluations de risques et les contrôles de conformité essentiels. Pour les organisations gérant des informations sensibles ou des données qui, si elles fuitaient, pourraient poser des risques de sécurité, une surveillance diligente des fournisseurs et des produits est primordiale pour garantir le respect des réglementations existantes. De plus, les employés utilisant des outils d’IA accessibles au public comme ChatGPT risquent de compromettre la confidentialité, car ces plateformes n’offrent aucune garantie de ce type.

En pratique, l’IA a montré un certain succès dans l’amélioration de la productivité pour les tâches dites de “faible qualification”, telles que la prise de notes pendant les réunions ou le service client de base, particulièrement pour le personnel junior ou ceux qui développent encore leurs compétences linguistiques. Cependant, le maintien de la qualité et de la responsabilité nécessite invariablement une supervision humaine des résultats de l’IA. Cela crée un paradoxe : les travailleurs mêmes qui pourraient bénéficier le plus des outils d’IA — ceux qui ont moins de compétences et d’expérience — sont souvent les moins bien équipés pour superviser et vérifier efficacement le contenu généré par l’IA. Dans les environnements à enjeux élevés, le degré de supervision humaine requis peut entièrement annuler tout gain de productivité potentiel. De plus, lorsque les emplois se résument principalement à superviser un système d’IA, les travailleurs peuvent ressentir de l’aliénation et une réduction de la satisfaction au travail.

De manière troublante, la recherche a également mis au jour des cas où l’IA est utilisée à des fins douteuses, des travailleurs pouvant potentiellement l’exploiter pour prendre des raccourcis sans pleinement saisir les nuances de la conformité organisationnelle. Au-delà des préoccupations de sécurité et de confidentialité des données, l’utilisation de l’IA pour l’examen et l’extraction d’informations peut introduire des risques éthiques, y compris l’amplification des biais humains existants. Cette dynamique peut même conduire les organisations à déployer davantage d’IA pour une surveillance et un contrôle accrus sur le lieu de travail, une pratique qu’une récente enquête du gouvernement victorien a reconnue comme potentiellement nuisible aux travailleurs.

En fin de compte, mesurer le véritable impact de l’IA sur la productivité reste un défi complexe. Les organisations s’appuient fréquemment sur des retours anecdotiques d’une poignée d’utilisateurs d’IA qualifiés ou sur des affirmations audacieuses de fournisseurs, plutôt que sur des métriques robustes et objectives. Un interviewé a noté sa surprise face aux gains de productivité élevés rapportés par Microsoft pour son outil Copilot, suggérant un biais potentiel dans les données fournies par le fournisseur. Bien que les organisations puissent être motivées par le désir de réduire les effectifs ou d’augmenter le débit, ces métriques ne tiennent souvent pas compte des changements dans la qualité des services ou des produits livrés aux clients. Surtout, elles négligent également les profonds changements dans l’expérience au travail pour les employés restants, ainsi que les coûts substantiels qui reviennent principalement aux cabinets de conseil et aux entreprises technologiques multinationales.