GPT-5 déçoit : L'innovation en IA atteint-elle ses limites ?

Ft

Le lancement très attendu du nouveau modèle d’intelligence artificielle d’OpenAI, GPT-5, la semaine dernière, devait être un moment charnière. Le PDG Sam Altman l’a salué comme “une étape significative sur la voie de l’AGI”, ou Intelligence Artificielle Générale, faisant référence à des systèmes d’IA capables d’atteindre ou de dépasser l’intelligence humaine. Les dirigeants espéraient également que le modèle affinerait l’expérience utilisateur de ChatGPT, le chatbot polyvalent devenu l’application grand public à la croissance la plus rapide de l’histoire.

Cependant, les “bonnes ondes” promises se sont rapidement dissipées. Les utilisateurs ont inondé les réseaux sociaux d’images illustrant des erreurs basiques, comme la mauvaise étiquette d’une carte des États-Unis – un problème récurrent des modèles précédents. Plus grave encore, les utilisateurs avancés ont exprimé leur déception face à un changement perçu dans la “personnalité” du modèle et ont noté ses performances décevantes dans les benchmarks standards par rapport à ses rivaux. Malgré l’immense battage médiatique, GPT-5 est désormais largement considéré comme une simple mise à niveau incrémentale plutôt que le saut révolutionnaire observé lors des itérations précédentes de GPT. Thomas Wolf, cofondateur de Hugging Face, a résumé : “les gens s’attendaient à découvrir quelque chose de totalement nouveau. Et là, nous n’avons pas vraiment eu ça.”

Avec des centaines de milliards de dollars investis dans l’IA générative, une question pressante résonne désormais dans la Silicon Valley : et si c’était aussi bien que ça ? Pendant trois ans, les chercheurs et investisseurs en IA se sont habitués à un rythme implacable d’innovation. OpenAI, autrefois apparemment inattaquable, a vu des concurrents comme Google, Anthropic, DeepSeek et xAI d’Elon Musk combler rapidement l’écart. Cela a alimenté des prédictions audacieuses d’une AGI imminente, Altman prévoyant son arrivée pendant la présidence de Donald Trump. Ces attentes élevées, qui sous-tendent l’évaluation projetée d’OpenAI de 500 milliards de dollars, ont été confrontées à la réalité lorsque GPT-5 n’a pas réussi à impressionner. Gary Marcus, un éminent critique de l’IA, l’a formulé sans détour : “GPT-5 était cette icône centrale de toute l’approche de mise à l’échelle pour atteindre l’AGI, et cela n’a pas fonctionné.”

Stuart Russell, professeur d’informatique à l’UC Berkeley, établit des parallèles avec l’“hiver de l’IA” des années 1980, lorsque les innovations n’ont pas répondu aux attentes et n’ont pas généré de retours. Il se souvient que la “bulle a éclaté” alors, car les systèmes ne rapportaient pas d’argent. Russell avertit qu’un scénario similaire pourrait se dérouler rapidement aujourd’hui, le comparant à un jeu de chaises musicales où chacun se bouscule pour éviter de se retrouver avec le “bébé IA” sur les bras. Bien que certains soutiennent que la technologie en est encore à ses premiers stades et que les capitaux continuent d’affluer, Russell avertit que des attentes surévaluées peuvent avoir un effet boomerang dramatique.

Un défi fondamental découle de la méthode prédominante de construction des grands modèles de langage : plus de données et de puissance de calcul produisent des modèles plus grands et plus performants. Bien que de nombreux leaders de l’IA croient que ces “lois de mise à l’échelle” tiendront, cette approche rencontre des limitations de ressources. Les entreprises d’IA ont largement épuisé les données d’entraînement disponibles gratuitement et poursuivent désormais activement des accords de partage de contenu avec les éditeurs. De plus, l’entraînement et l’exécution de grands modèles sont incroyablement énergivores. GPT-4 a utilisé des milliers de puces Nvidia ; GPT-5 aurait utilisé des centaines de milliers de processeurs de nouvelle génération. Le PDG d’OpenAI, Sam Altman, a récemment reconnu ces limites, déclarant que si les modèles d’IA sous-jacents “s’améliorent toujours à un rythme rapide”, les chatbots comme ChatGPT “ne s’amélioreront pas beaucoup plus”.

Certains chercheurs en IA soutiennent que l’intense concentration sur la mise à l’échelle des grands modèles de langage a involontairement limité les progrès en éclipsant d’autres recherches. Yann LeCun, scientifique en chef de Meta, estime que “nous entrons dans une phase de rendements décroissants avec les LLM purs entraînés avec du texte”. Cependant, il souligne que cela ne signifie pas un plafond pour les “systèmes d’IA basés sur l’apprentissage profond entraînés à comprendre le monde réel à travers la vidéo et d’autres modalités”. Ces “modèles du monde” apprennent des éléments du monde physique au-delà du langage, permettant la planification, le raisonnement et la mémoire persistante, potentiellement propulsant les avancées dans les voitures autonomes ou la robotique. Joelle Pineau, directrice de l’IA chez Cohere, est d’accord : “Continuer simplement à ajouter de la puissance de calcul et à viser une AGI théorique ne suffira pas.”

Les soupçons concernant un ralentissement du développement de l’IA influencent déjà la politique commerciale et technologique américaine. Sous l’administration du président Joe Biden, l’accent a été fermement mis sur la sécurité et la réglementation, en raison des préoccupations que la croissance rapide de l’IA posait des conséquences dangereuses. Les penchants libertaires de Donald Trump ont toujours suggéré que la réglementation de l’IA serait moins une priorité, mais même récemment, des préoccupations de sécurité nationale ont conduit Washington à menacer de contrôles d’exportation sur les puces H20 de Nvidia destinées à la Chine. Un signal clair du changement de perspective de Washington est venu de David Sacks, le “tsar de l’IA” de Trump, qui a déclaré que “les prédictions apocalyptiques de perte d’emplois sont aussi exagérées que l’AGI elle-même”. Sacks a postulé que le marché de l’IA avait atteint un état d’équilibre “Boucles d’or”, avec une concurrence étroite et un rôle humain clair. Peu de temps après, Trump a conclu un accord avec le PDG de Nvidia, Jensen Huang, pour reprendre les ventes de H20 à la Chine et a même envisagé d’autoriser des versions modifiées de systèmes Blackwell plus puissants. Les analystes suggèrent qu’avec l’AGI n’étant plus considérée comme un risque imminent, l’attention de Washington s’est déplacée vers l’assurance que les puces et modèles d’IA fabriqués aux États-Unis dominent à l’échelle mondiale.

Bien que ce ne soit peut-être pas l’intention d’OpenAI, le lancement de GPT-5 souligne un changement fondamental : les entreprises d’IA “acceptent lentement le fait qu’elles construisent des infrastructures pour des produits”, selon Sayash Kapoor, chercheur à l’Université de Princeton. Son équipe a constaté que les performances de GPT-5 étaient constamment de niveau moyen mais excellaient en étant “assez rentables et aussi beaucoup plus rapides que les autres modèles”. Cette efficacité pourrait débloquer une innovation significative dans les produits et services, même sans percées extraordinaires vers l’AGI. Miles Brundage, chercheur en politiques d’IA, observe : “Il est logique qu’à mesure que l’IA est appliquée de nombreuses manières utiles, les gens se concentrent davantage sur les applications plutôt que sur des idées plus abstraites comme l’AGI.” Les principales entreprises d’IA déploient désormais des “ingénieurs sur le terrain” pour intégrer directement les modèles dans les systèmes clients. Kapoor souligne : “Les entreprises ne feraient pas cela si elles pensaient être sur le point d’automatiser tout le travail humain pour le reste des temps.”

Malgré le ralentissement apparent du développement fondamental de l’IA.