GPT-5 : Le nouveau modèle d'IA d'OpenAI adopte l'humilité
Dans presque toutes les conversations sur l’intelligence artificielle, un schéma familier émerge : l’admiration initiale pour ses capacités cède rapidement la place à la frustration face à sa propension à fabriquer des informations et à son manque de fiabilité inhérent. Même parmi les plus ardents partisans de l’IA, ces plaintes sont répandues. Lors d’un récent voyage en Grèce, une amie qui compte sur ChatGPT pour la rédaction de contrats publics l’a parfaitement exprimé. « Je l’aime bien », a-t-elle expliqué, « mais il ne dit jamais ‘Je ne sais pas’. Il vous fait juste croire qu’il sait. » Interrogée sur ses requêtes, elle a répondu fermement : « Non. Il ne sait pas dire ‘Je ne sais pas’. Il invente juste une réponse pour vous. » Sa frustration était palpable ; elle payait pour un service qui échouait constamment à une promesse fondamentale de fiabilité.
Il semble qu’OpenAI ait écouté attentivement ces frustrations. L’entreprise, sous la direction de Sam Altman, a récemment dévoilé son dernier modèle, GPT-5. Bien qu’il affiche des améliorations de performances significatives par rapport à ses prédécesseurs, sa nouvelle fonctionnalité la plus cruciale pourrait bien être un nouveau sens de l’humilité.
Comme prévu, l’annonce officielle d’OpenAI a loué GPT-5 comme « Notre modèle le plus intelligent, le plus rapide et le plus utile à ce jour, avec une pensée intégrée qui met l’intelligence de niveau expert à la portée de tous. » En effet, GPT-5 établit de nouvelles références dans divers domaines, y compris les mathématiques, le codage, l’écriture et les soins de santé. Cependant, ce qui distingue vraiment cette version est l’accent mis sur l’« humilité » du modèle. Cela représente peut-être la mise à niveau la plus profonde de toutes : GPT-5 a finalement appris à prononcer les trois mots avec lesquels de nombreux systèmes d’IA – et même de nombreux humains – luttent : « Je ne sais pas. » Pour une intelligence artificielle souvent commercialisée sur la prémisse d’un intellect divin, admettre son ignorance est une leçon remarquable de conscience de soi.
OpenAI affirme que GPT-5 « communique plus honnêtement ses actions et ses capacités à l’utilisateur, en particulier pour les tâches impossibles, sous-spécifiées ou pour lesquelles il manque des outils clés. » L’entreprise reconnaît ouvertement que les itérations précédentes de ChatGPT « pouvaient apprendre à mentir sur l’achèvement réussi d’une tâche ou être trop confiantes quant à une réponse incertaine. » En instillant cette humilité, OpenAI modifie fondamentalement la façon dont les utilisateurs interagissent avec son IA. L’entreprise affirme que GPT-5 a été spécifiquement entraîné pour être plus véridique, moins enclin à accepter simplement par complaisance, et considérablement plus prudent lorsqu’il tente de bluffer à travers des problèmes complexes. Cela en fait la première IA grand public explicitement conçue pour résister à la génération de désinformation, en particulier la sienne.
Plus tôt cette année, de nombreux utilisateurs de ChatGPT ont observé un changement déroutant vers un comportement sycophante dans GPT-4. Indépendamment de la requête, le modèle répondait souvent avec des flatteries effusives, des émojis et des affirmations enthousiastes, se transformant d’un utilitaire en un coach de vie numérique trop complaisant. Cette ère de complaisance excessive serait révolue avec GPT-5. OpenAI déclare que le nouveau modèle a été délibérément entraîné pour éviter un tel comportement. Les ingénieurs y sont parvenus en lui apprenant quelles réponses éviter, freinant ainsi efficacement ses tendances sycophantes. Des tests internes ont montré que ces réponses excessivement flatteuses ont chuté de 14,5 % du temps à moins de 6 %. Le résultat est un GPT-5 plus direct, parfois même paraissant froid, mais qu’OpenAI insiste est plus fréquemment précis. L’entreprise caractérise la nouvelle interaction comme « moins effusivement agréable, utilise moins d’émojis inutiles, et est plus subtile et réfléchie dans les suivis par rapport à GPT-4o », suggérant qu’elle se sentira « moins comme ‘parler à une IA’ et plus comme discuter avec un ami utile doté d’une intelligence de niveau doctorat. »
Alon Yamin, cofondateur et PDG de Copyleaks, une entreprise de vérification de contenu IA, salue ce développement comme « un autre jalon dans la course à l’IA. » Il estime qu’un GPT-5 plus humble est bénéfique pour « la relation de la société avec la vérité, la créativité et la confiance. » Yamin souligne que « nous entrons dans une ère où distinguer les faits de la fabrication, la paternité de l’automatisation, sera à la fois plus difficile et plus essentiel que jamais », soulignant la demande « non seulement de progrès technologique, mais de l’évolution continue de garanties réfléchies et transparentes concernant l’utilisation de l’IA. »
De manière cruciale, OpenAI rapporte que GPT-5 est significativement moins sujet aux « hallucinations », ou à la fabrication d’informations avec une confiance indue. Pour les requêtes impliquant des recherches web, l’entreprise déclare que les réponses de GPT-5 sont 45 % moins susceptibles de contenir une erreur factuelle que celles de GPT-4o. Lorsqu’il fonctionne en mode de « pensée » avancé, cette réduction des erreurs factuelles bondit de manière spectaculaire à 80 %. Peut-être le plus important, GPT-5 évite désormais résolument d’inventer des réponses à des questions impossibles, un trait commun et troublant des modèles précédents. Il a appris quand s’arrêter, reconnaissant ses propres limitations.
Mon amie en Grèce, qui rédige des contrats publics, accueillera sans aucun doute ce changement. Cependant, certains utilisateurs pourraient se sentir frustrés par une IA qui ne leur dit plus simplement ce qu’ils veulent entendre. Pourtant, c’est précisément cette honnêteté retrouvée qui pourrait enfin transformer l’IA en un outil véritablement fiable, en particulier dans des domaines sensibles et à enjeux élevés tels que la santé, le droit et la recherche scientifique.