L'IA se propage vite : opportunités, déplacements, incertitudes

Venturebeat

Une profonde transformation est en cours, souvent décrite comme une “migration cognitive” à mesure que l’intelligence artificielle s’intègre rapidement dans la vie professionnelle. Le professeur Christopher Stanton de l’Université de Harvard, expert en matière d’avenir du travail, a récemment qualifié l’IA de “technologie à diffusion extraordinairement rapide”, soulignant sa vitesse d’adoption et son impact sans précédent par rapport aux précédents changements technologiques comme l’ordinateur personnel ou Internet. Demis Hassabis, PDG de Google DeepMind, a même spéculé que l’IA pourrait être “10 fois plus grande que la Révolution industrielle, et peut-être 10 fois plus rapide”.

Ce changement signifie que l’intelligence, ou du moins le processus de pensée, est de plus en plus partagée entre les humains et les machines. Certaines personnes ont intégré l’IA de manière transparente dans leurs flux de travail quotidiens, tandis que d’autres sont allées plus loin, l’incorporant dans leurs routines cognitives et même leur identité créative. Ce sont les “volontaires” – des consultants experts en ingénierie de prompts, des chefs de produit qui réorganisent les systèmes, et des entrepreneurs qui bâtissent des entreprises tirant parti de l’IA pour tout, du codage au marketing. Pour eux, le paysage semble nouveau mais navigable, voire passionnant. Pourtant, pour beaucoup d’autres, cette période évoque un sentiment de malaise. Leur principale préoccupation n’est pas seulement d’être laissés pour compte, mais plutôt l’incertitude quant à savoir comment, quand ou s’il faut investir dans un avenir piloté par l’IA où leur place reste indéfinie. Ce double risque de “préparation à l’IA” remodèle profondément la façon dont les gens perçoivent le rythme, les promesses et les pressions de cette transition.

Dans tous les secteurs, de nouveaux rôles et équipes émergent, et les outils d’IA remodèlent les flux de travail à un rythme qui dépasse le développement de nouvelles normes ou de stratégies claires. Les implications ultimes restent floues, le résultat final incertain. Malgré cette ambiguïté, la vitesse et l’ampleur du changement sont considérables. Chacun est invité à s’adapter, mais peu comprennent précisément ce que cela implique ou à quel point les changements seront profonds. Certains leaders de l’industrie de l’IA prédisent même l’avènement de machines superintelligentes d’ici quelques années.

Cependant, l’histoire de l’IA est ponctuée de périodes d’attentes excessives suivies de déception, souvent appelées “hivers de l’IA”. Le premier s’est produit dans les années 1970 en raison de limitations computationnelles, et le second à la fin des années 1980 après que les “systèmes experts” n’aient pas tenu leurs grandes promesses, entraînant des réductions significatives de financement et d’intérêt. Si l’excitation actuelle autour des agents d’IA reflète le potentiel inexploité de ces systèmes experts antérieurs, un autre hiver pourrait suivre. Pourtant, des différences significatives existent aujourd’hui : un soutien institutionnel bien plus important, une adoption généralisée par les consommateurs et une infrastructure de cloud computing robuste. Bien qu’un nouvel hiver ne soit pas impossible, un échec cette fois ne proviendrait pas d’un manque d’argent ou d’élan, mais potentiellement d’une rupture de confiance et de fiabilité.

En effet, malgré l’immense urgence et l’élan, cette technologie de plus en plus omniprésente reste sujette aux dysfonctionnements, limitée, fragile et loin d’être fiable. Si les grands modèles de langage (LLM) ont évolué de productions à peine cohérentes il y a quelques années à quelque chose d’apparenté à “un doctorat dans votre poche”, offrant une intelligence ambiante à la demande quasi réalisée, leur faillibilité sous-jacente persiste. Les chatbots construits sur ces modèles sont oublieux, souvent trop confiants et toujours sujets aux “hallucinations” – générant des informations confiantes mais fausses. Ils manquent de mémoire persistante, peinant à maintenir les fils de conversation entre les sessions, et ils n’“apprennent” pas au sens humain ; une fois libérée, leur “intelligence” est fixe. Leur continuité conversationnelle est limitée à une fenêtre de contexte, au sein de laquelle ils peuvent absorber des connaissances et établir des connexions, apparaissant remarquablement tel un savant.

Ces forces et faiblesses se combinent pour créer une présence intrigante, presque envoûtante. Mais pouvons-nous vraiment lui faire confiance ? L’Edelman Trust Barometer 2025 révèle une divergence mondiale significative en matière de confiance en l’IA : 72 % en Chine contre seulement 32 % aux États-Unis. Cette disparité souligne à quel point la confiance du public dans l’IA est autant façonnée par le contexte culturel et la gouvernance que par la capacité technique. Une plus grande confiance émergerait probablement si l’IA n’hallucinait pas, pouvait se souvenir, apprenait vraiment et que son fonctionnement interne était plus transparent. Pourtant, la confiance dans l’industrie de l’IA elle-même reste insaisissable, alimentée par des craintes de réglementation insuffisante et un manque de participation du public à son développement et à son déploiement.

Cette “migration cognitive” se poursuit, souvent alimentée par la foi plutôt que par la certitude. Pour beaucoup, ce n’est pas un choix mais un “déplacement géré”. Le récit d’opportunités et de perfectionnement des compétences masque souvent une réalité plus dure : certains travailleurs ne se désengagent pas de l’IA, mais découvrent que l’avenir en construction ne les inclut tout simplement pas. La croyance dans les outils diffère d’un sentiment d’appartenance au sein du système que ces outils remodèlent. Sans un chemin clair vers une participation significative, l’impératif de “s’adapter ou être laissé pour compte” sonne de moins en moins comme un conseil et de plus en plus comme un verdict définitif. Même les professionnels expérimentés qui ont commencé à utiliser l’IA expriment des inquiétudes quant à la sécurité de leur emploi. Satya Nadella, PDG de Microsoft, a reconnu cette transition “désordonnée” dans un mémo de juillet 2025 suite à des réductions d’effectifs, mais la réalité troublante est que la technologie qui impulse cette transformation urgente reste fondamentalement peu fiable.

Pour l’instant, les avancées exponentielles persistent alors que les entreprises pilotent et déploient l’IA, motivées par la conviction ou la peur de manquer quelque chose. L’hypothèse dominante est que les lacunes actuelles seront résolues par une meilleure ingénierie logicielle, et en effet, certaines le seront probablement. Le pari est que la technologie fonctionnera, s’adaptera efficacement et que son impact disruptif sera éclipsé par les gains de productivité qu’elle permet. Le succès de cette entreprise présuppose que toute perte de nuance, de valeur ou de sens humain sera compensée par une portée et une efficacité accrues. Le rêve, à l’inverse, est que l’IA favorisera une abondance généralisée, élèvera plutôt qu’exclura, et étendra l’accès à l’intelligence et aux opportunités plutôt que de les concentrer.

La vérité troublante réside dans l’écart entre ce pari et ce rêve. Nous avançons comme si prendre ce pari garantissait automatiquement le rêve, espérant qu’un progrès accéléré nous mènera à un meilleur endroit et faisant confiance à ce qu’il n’érodera pas les éléments humains qui rendent la destination digne d’intérêt. Mais l’histoire montre que même les paris réussis peuvent laisser beaucoup de monde derrière. La transformation “désordonnée” actuellement en cours n’est pas simplement un effet secondaire inévitable ; c’est une conséquence directe de la vitesse qui submerge la capacité humaine et institutionnelle à s’adapter de manière réfléchie et prudente. Le défi n’est pas seulement de construire de meilleurs outils, mais de poser des questions plus profondes sur leur destination finale. Nous ne migrons pas seulement vers un lieu inconnu ; nous le faisons si vite que la carte change à mesure que nous courons, traversant un paysage encore en cours de dessin. Toute migration porte l’espoir, mais un espoir non examiné peut être risqué. Il est temps de demander non seulement où nous allons, mais à qui appartiendra le lieu lorsque nous y arriverons.