IA: Les Leaders Craignent l'Explosion d'une Bulle et un Retour à la Réalité

Decoder

L’industrie de l’intelligence artificielle, longtemps alimentée par des valorisations en flèche et de grandes promesses, entend désormais des avertissements de plus en plus sonores concernant ses attentes démesurées. Le chercheur éminent en IA, Stuart Russell – une figure qui a paradoxalement contribué à façonner une partie de cet enthousiasme – tire désormais la sonnette d’alarme, avertissant que le battage médiatique actuel pourrait facilement se gonfler en une bulle spéculative. Si l’élan faiblit, prévient-il, les investisseurs et les entreprises pourraient fuir en masse, entraînant un effondrement rapide et spectaculaire rappelant l’hiver de l’IA des années 1980, une période où les systèmes ne parvenaient pas à générer des revenus suffisants ou des applications de grande valeur.

Les idées de Russell ont un poids particulier étant donné son implication passée. En 2023, il a notamment signé la désormais tristement célèbre lettre ouverte appelant à une pause temporaire dans le développement de l’IA en raison de problèmes de sécurité, craignant alors que le rythme ne soit trop rapide. L’ironie n’est pas perdue : il perçoit maintenant le risque opposé – une industrie en surchauffe due à des attentes vertigineuses prêtes pour une correction soudaine. En effet, la lettre de pause elle-même a pu involontairement attiser les flammes, suggérant que les systèmes d’IA étaient sur le point d’une percée incontrôlable. Ce récit a été amplifié par des déclarations ambitieuses de leaders technologiques et de l’IA, renforçant la conviction des investisseurs que l’intelligence artificielle générale (IAG) était imminente, prête à surpasser les capacités humaines et à perturber l’économie mondiale du jour au lendemain.

La récente publication de GPT-5 est rapidement devenue une vérification symbolique de la réalité pour l’évolution de l’humeur au sein du secteur de l’IA. Les spéculations sur un ralentissement des progrès de l’IA générative se sont intensifiées après ses débuts, que beaucoup ont trouvés décevants. La déception ne réside pas dans les performances techniques du modèle – GPT-5 offre des améliorations prévisibles et une meilleure rentabilité – mais plutôt dans la nette disparité entre des mois d’anticipation haletante et une réalité qui semble décidément plus ordinaire. Thomas Wolf, cofondateur de Hugging Face, a observé que « Pour GPT-5 […] les gens s’attendaient à découvrir quelque chose de totalement nouveau. Et là, nous n’avons pas vraiment eu cela. » Même le PDG d’OpenAI, Sam Altman, une figure clé de l’essor de l’IA, a récemment reconnu le risque d’une bulle industrielle.

Pour tempérer davantage les attentes, Yann LeCun, scientifique en chef de l’IA chez Meta, souligne les limites inhérentes des grands modèles linguistiques actuels, notant que les gains des « LLM purs entraînés avec du texte » commencent à ralentir, une position qu’il a toujours maintenue pendant des années. LeCun reste cependant optimiste quant à l’avenir des modèles d’apprentissage profond multimodaux capables d’apprendre à partir de divers types de données, y compris la vidéo.

L’avertissement de Russell arrive à un moment critique. L’industrie a maintenant un besoin urgent de traction commerciale tangible et de cas d’utilisation durables et générateurs de revenus pour justifier les milliards déjà investis et les billions supplémentaires que Altman prévoit. Sans ces livrables concrets, un changement soudain de sentiment pourrait faire s’effondrer la vague actuelle de battage médiatique, quelle que soit l’utilité sous-jacente de la technologie dans la vie quotidienne. Une grande partie de l’enthousiasme actuel est centrée sur les systèmes d’IA dits basés sur des agents, conçus pour gérer de manière autonome des tâches complexes sur des périodes prolongées. Pourtant, il reste incertain si ces architectures naissantes sont suffisamment fiables pour justifier les prix élevés que des entreprises comme OpenAI flotteraient apparemment – parfois jusqu’à 20 000 $ par mois – sur la promesse de leur valeur. Plus précisément, l’IA basée sur des agents continue de faire face à des défis importants concernant à la fois la fiabilité et la cybersécurité.