OpenAI Lance GPT-5 : La Quête de l'AGI Continue avec un Raisonnement Amélioré

Spectrum

OpenAI a officiellement dévoilé GPT-5, marquant ce que les dirigeants de l’entreprise décrivent comme un bond significatif dans la poursuite de l’Intelligence Artificielle Générale (AGI). La dernière itération de leur grand modèle linguistique (LLM) est désormais accessible à tous les utilisateurs via l’interface ChatGPT, promettant des capacités de raisonnement sans précédent, une “vibe coding” améliorée et des performances supérieures dans les tâches d’IA agence, aux côtés d’une suite de nouvelles fonctionnalités de sécurité.

Selon Sam Altman, PDG d’OpenAI, GPT-5 représente une mise à niveau majeure, avec des interactions qui donnent l’impression de converser avec un expert de niveau doctoral sur n’importe quel sujet. Nick Turley, responsable de ChatGPT, a souligné que la sensation plus naturelle et “humaine” du modèle est son attribut le plus remarquable. La sortie de GPT-5 vise également à rationaliser la gamme précédemment diverse de LLM d’OpenAI, tels que GPT-4, GPT-4o et les modèles de “raisonnement” o1 et o3, en consolidant les capacités avancées sous un même parapluie. Notamment, cela signifie que les utilisateurs gratuits de ChatGPT bénéficieront désormais d’un raisonnement sophistiqué, une fonctionnalité auparavant limitée aux abonnés payants. Cette capacité de raisonnement exploite une technique appelée “incitation par chaîne de pensée” (chain-of-thought prompting), où le modèle décompose les problèmes complexes en étapes séquentielles, imitant la délibération humaine pour arriver à des réponses plus précises.

Bien qu’une carte système détaillée décrivant les performances de référence de GPT-5 soit attendue, l’équipe d’OpenAI affirme que le nouveau modèle est non seulement plus intelligent et plus rapide, mais aussi plus fiable. Ils revendiquent une réduction des “hallucinations” – instances où l’IA génère des informations fausses ou trompeuses présentées comme des faits – et une probabilité accrue que le modèle admette les limites de ses connaissances plutôt que de fournir des réponses incorrectes avec confiance.

Un fort accent a été mis sur la prouesse de codage de GPT-5, une réponse potentielle à l’avance perçue d’autres LLM dans ce domaine. Altman envisage une nouvelle ère de “logiciel à la demande”, où les utilisateurs peuvent décrire une application en langage naturel et voir le code se matérialiser. Lors d’un point de presse, Yann Dubois, responsable post-formation chez OpenAI, a démontré cela en demandant à GPT-5 de créer une application web pour l’apprentissage du français, avec des flashcards, des quiz et un jeu interactif. Le modèle a généré des centaines de lignes de code fonctionnel en quelques secondes, démontrant sa capacité à gérer des tâches de développement complexes qui nécessiteraient généralement des heures pour un développeur humain. Cette capacité s’aligne sur le concept émergent de “vibe coding”, un style de développement logiciel assisté par l’IA où les développeurs guident un assistant IA pour générer et affiner le code par le langage naturel, déplaçant l’attention du codage manuel vers l’expérimentation itérative.

Au-delà du codage, GPT-5 est vanté pour son excellence dans les tâches d’IA agence. L’IA agence fait référence aux systèmes capables d’agir de manière autonome, de prendre des décisions et de poursuivre des objectifs avec une supervision humaine limitée en intégrant plusieurs modèles d’IA et outils externes. Dubois a déclaré que GPT-5 est plus apte à sélectionner les bons outils pour une tâche, moins sujet à se laisser distraire pendant de longs processus et plus efficace pour se remettre des erreurs.

Les fonctionnalités de sécurité ont reçu une attention considérable, avec Alex Beutel, responsable de la recherche en sécurité, soulignant une nouvelle technique appelée “complétions sécurisées”. Cela permet à GPT-5 de fournir des réponses utiles même à des requêtes ambiguës, visant à naviguer la ligne fine entre l’utilité et l’utilisation potentielle abusive, contrairement aux réponses binaires précédentes “sûr/dangereux”. Cependant, le défi continu du “jailbreaking” des LLM – trouver des moyens de contourner les garde-fous de sécurité – reste une préoccupation, et les pirates informatiques devraient tester immédiatement les défenses de GPT-5.

OpenAI a également reconnu la tendance problématique “sycophante” des LLM à être d’accord avec les utilisateurs, même lorsqu’ils sont confrontés à des informations incorrectes, un trait qui a soulevé des préoccupations, en particulier dans des domaines sensibles comme la santé mentale. Alors que Nick Turley a indiqué des progrès sur ce front et dans la gestion des scénarios de santé mentale, il a noté que plus de détails seraient partagés bientôt. La société a récemment annoncé des changements à ChatGPT, y compris des rappels aux utilisateurs de faire des pauses et un accent sur l’“honnêteté fondée” dans les réponses aux utilisateurs qui subissent des délires.

Altman a clarifié que GPT-5 n’est pas la réalisation ultime de l’AGI, car il lui manque encore des attributs cruciaux comme l’apprentissage continu post-déploiement. Cependant, il reste confiant dans les “lois d’échelle” de l’IA, qui prédisent des améliorations de performance avec l’augmentation des données, des paramètres du modèle et des ressources computationnelles. Altman a déclaré que ces lois “tiennent absolument toujours” et qu’OpenAI voit “des ordres de grandeur de gains supplémentaires devant nous”, s’engageant à des investissements colossaux en calcul pour réaliser de futurs progrès.