GPT-5 et l'AGI : l'IA a-t-elle atteint son plafond ?

Theconversation

Le dernier modèle phare d’OpenAI, GPT-5, est présenté par l’entreprise comme un « pas significatif » vers l’Intelligence Artificielle Générale (AGI), un état hypothétique où les systèmes d’IA surpassent de manière autonome les humains dans la plupart des tâches économiquement précieuses. Pourtant, malgré ces grandes affirmations, les descriptions des avancées de GPT-5 par Sam Altman, PDG d’OpenAI, sont remarquablement discrètes. Il souligne des améliorations dans la capacité de codage, une réduction des « hallucinations » (où l’IA génère de fausses informations), et une meilleure adhésion aux instructions multi-étapes, en particulier lors de l’intégration avec d’autres logiciels. Le modèle est également réputé plus sûr et moins « sycophante », conçu pour ne pas tromper ou fournir des informations nuisibles simplement pour plaire à l’utilisateur.

Altman suggère qu’interagir avec GPT-5 donne l’impression de converser avec un expert de niveau doctorat sur n’importe quel sujet donné. Cependant, cette affirmation est immédiatement tempérée par l’incapacité fondamentale du modèle à vérifier l’exactitude de sa propre production. Par exemple, il a des difficultés avec des tâches de base comme dessiner avec précision une carte de l’Amérique du Nord. De plus, GPT-5 ne peut pas apprendre de ses propres expériences et n’a atteint que 42 % de précision lors de l’« Examen Final de l’Humanité », un benchmark stimulant couvrant divers sujets scientifiques et académiques. Cette performance est légèrement inférieure à celle de Grok 4, un modèle concurrent de xAI d’Elon Musk, qui aurait atteint 44 %.

L’innovation technique principale qui sous-tend GPT-5 semble être l’introduction d’un « routeur ». Ce composant décide intelligemment quel modèle GPT interne engager pour répondre à une requête, déterminant essentiellement l’effort computationnel requis pour une réponse et affinant ce processus en fonction des retours des choix précédents. Le routeur peut déléguer à des modèles GPT précédents ou à un nouveau modèle dédié de « raisonnement plus profond » appelé GPT-5 Thinking. La nature précise de ce nouveau modèle reste floue, car OpenAI n’a pas indiqué qu’il repose sur de nouveaux algorithmes ou de nouveaux ensembles de données, étant donné que la plupart des données disponibles ont déjà été largement utilisées. Cela conduit à la spéculation selon laquelle GPT-5 Thinking pourrait simplement être un mécanisme élaboré pour solliciter les modèles existants plusieurs fois, les poussant plus fort à produire de meilleurs résultats.

La fondation des systèmes d’IA puissants d’aujourd’hui réside dans les Grands Modèles de Langage (LLM), un type d’architecture d’IA développé par les chercheurs de Google en 2017. Ces modèles excellent dans l’identification de schémas complexes au sein de vastes séquences de mots, qui forment le socle du langage humain. En s’entraînant sur d’immenses quantités de texte, les LLM apprennent à prédire la continuation la plus probable d’une séquence de mots donnée, ce qui leur permet de générer des réponses cohérentes et contextuellement pertinentes aux invites des utilisateurs. Cette approche, exemplifiée par des systèmes comme ChatGPT, s’est constamment améliorée à mesure que les LLM sont exposés à des ensembles de données toujours plus grands. Fondamentalement, ces modèles fonctionnent comme une table de consultation complexe, mappant le stimulus d’un utilisateur (invite) à la réponse la plus appropriée. Il est remarquable qu’un concept apparemment si simple ait permis aux LLM de surpasser de nombreux autres systèmes d’IA en termes de flexibilité et de convivialité, sinon toujours en termes de précision ou de fiabilité absolues.

Malgré leurs capacités impressionnantes, il reste à savoir si les LLM peuvent réellement atteindre l’AGI. Les critiques remettent en question leur capacité à un véritable raisonnement, leur capacité à comprendre le monde de manière humaine, ou leur compétence à apprendre de l’expérience pour affiner leur propre comportement – tous considérés comme des ingrédients essentiels pour l’AGI. En attendant, une industrie florissante d’entreprises de logiciels d’IA a émergé, dédiée à « apprivoiser » les LLM à usage général pour les rendre plus fiables et prévisibles pour des applications spécifiques. Ces entreprises emploient souvent des techniques d’ingénierie d’invites sophistiquées, interrogeant parfois les modèles plusieurs fois ou même utilisant de nombreux LLM simultanément, ajustant les instructions jusqu’à ce que le résultat souhaité soit atteint. Dans certains cas, elles « affinent » les LLM avec des modules complémentaires spécialisés pour améliorer leur efficacité.

Le nouveau routeur d’OpenAI, intégré directement dans GPT-5, s’aligne sur cette tendance de l’industrie. S’il réussit, cette optimisation interne pourrait réduire le besoin d’ingénieurs en IA externes plus loin dans la chaîne d’approvisionnement et potentiellement rendre GPT-5 plus rentable pour les utilisateurs en offrant de meilleurs résultats sans embellissements supplémentaires. Cependant, cette démarche stratégique pourrait également être perçue comme une admission implicite que les LLM approchent d’un plateau dans leur capacité à tenir la promesse de l’AGI. Si cela est vrai, cela validerait les arguments de scientifiques et d’experts de l’industrie qui ont longtemps soutenu que les limitations actuelles de l’IA ne peuvent être surmontées sans aller au-delà des architectures LLM existantes.

L’accent mis sur le routage fait également écho à un concept connu sous le nom de « méta-raisonnement », qui a gagné en importance dans l’IA au cours des années 1990. Ce paradigme était centré sur l’idée de « raisonner sur le raisonnement » — par exemple, décider de la quantité d’effort computationnel qu’il vaut la peine d’investir pour optimiser une tâche complexe. Cette approche, axée sur la décomposition des problèmes en composants plus petits et spécialisés, était dominante avant le passage aux LLM à usage général.

La sortie de GPT-5, avec son accent sur la délégation interne plutôt que sur de nouveaux algorithmes révolutionnaires, pourrait marquer un pivot significatif dans l’évolution de l’IA. Bien que cela ne signale pas un retour complet à des paradigmes plus anciens, cela pourrait inaugurer une ère où la poursuite incessante de modèles toujours plus complexes et impénétrables cède la place à un accent sur la création de systèmes d’IA plus contrôlables grâce à des méthodes d’ingénierie rigoureuses. En fin de compte, ce changement pourrait servir de puissant rappel que la vision originale de l’intelligence artificielle n’était pas simplement de reproduire l’intelligence humaine, mais aussi d’approfondir notre compréhension de celle-ci.