PDG d'OpenAI : Vous n'utilisez pas l'IA à son plein potentiel
Le lancement de GPT-5 par OpenAI le 7 août a été annoncé par l’entreprise comme un bond en avant monumental, précédé de semaines d’intense battage médiatique et d’un dévoilement soigné de ses capacités en direct. Pourtant, la réaction du public a été notablement discrète, marquée par la confusion et la frustration suite à la suppression de plusieurs modèles de chatbot familiers sur lesquels les utilisateurs avaient appris à compter.
Par la suite, le PDG d’OpenAI, Sam Altman, a involontairement mis en lumière le décalage frappant entre les grandes attentes de l’entreprise pour GPT-5 et la réalité de sa réception. Il semble qu’une majorité significative d’utilisateurs n’exploitent pas l’intelligence artificielle à son plein potentiel. Dans une récente publication sur les réseaux sociaux, abordant les préoccupations des abonnés payants Plus – qui paient 20 $ par mois pour un accès amélioré – concernant les réductions drastiques de leurs limites d’utilisation de chatbot, Altman a divulgué une statistique surprenante : avant la sortie de GPT-5, seulement 1 % des utilisateurs non payants et un maigre 7 % des utilisateurs payants utilisaient un «modèle de raisonnement» comme o3.
Les modèles de raisonnement sont conçus pour «réfléchir» aux problèmes avant de formuler une réponse, s’engageant dans un processus plus délibéré. Bien qu’il soit crucial de se rappeler que les modèles d’IA ne possèdent pas de cognition ou de conscience humaine, cette «délibération» interne les distingue. Négliger d’utiliser ces modes avancés, comme l’a fait la grande majorité des utilisateurs, revient à acheter un véhicule haute performance et à ne le conduire qu’en première vitesse, puis à se demander pourquoi le trajet semble si inefficace. C’est comme un candidat de jeu télévisé qui lance la première réponse qui lui vient à l’esprit, plutôt que de prendre le temps de considérer la meilleure réponse.
De nombreux utilisateurs privilégient évidemment la vitesse et la commodité immédiates par rapport à la profondeur et à la qualité des interactions avec les chatbots d’IA. Cette préférence était évidente dans le vaste mécontentement qui a suivi la suppression initiale de GPT-4o, un modèle antérieur qui a ensuite été restauré pour les utilisateurs payants de ChatGPT après une pression publique considérable. Cependant, lorsque l’on recherche des informations fiables ou des solutions créatives auprès d’un chatbot, une réponse légèrement plus lente mais précise est presque toujours préférable à une réponse rapide mais potentiellement incorrecte.
Ces modèles de «raisonnement» exigent intrinsèquement plus d’efforts de calcul, car ils planifient, vérifient et itèrent en interne avant de générer une sortie. Cette délibération supplémentaire améliore considérablement les résultats pour les tâches nécessitant une logique précise. Cependant, cette rigueur a un coût, tant en termes de temps de traitement que de ressources informatiques. Par conséquent, les fournisseurs d’IA proposent souvent par défaut des versions plus rapides et moins «réfléchies», obligeant les utilisateurs à sélectionner activement des alternatives plus performantes via des menus déroulants. Les conventions de dénomination de modèles historiquement complexes d’OpenAI ont encore aggravé ce problème, bien que GPT-5 visait à le simplifier, sans y parvenir entièrement. Les utilisateurs ont toujours du mal à discerner facilement s’ils accèdent à la version plus sophistiquée et «à raisonnement» de GPT-5 ou à une itération moins performante, un problème qu’OpenAI serait en train de résoudre après les retours des utilisateurs.
Même après l’introduction de GPT-5, qui a rendu plus apparente la distinction entre le modèle phare et sa variante «pensante» (promettant des «réponses plus approfondies»), seul un utilisateur payant sur quatre opte actuellement pour cette rigueur améliorée. Cette observation apporte une réponse convaincante à une question déroutante sur l’adoption de l’IA : pourquoi seulement un tiers environ des Américains ayant utilisé un chatbot le décrivent-ils comme «extrêmement» ou «très utile» (la moitié du taux chez les experts en IA), tandis qu’un cinquième le juge «pas utile du tout» (le double du taux des experts) ? Les données suggèrent un schéma clair : de nombreuses personnes n’utilisent tout simplement pas l’IA à sa pleine capacité. Elles confient à des chatbots sophistiqués des questions complexes et en plusieurs parties sans activer les processus internes conçus pour gérer efficacement de tels défis. Pour ceux qui envisagent ou continuent d’utiliser un chatbot, tirer parti des efforts récents d’OpenAI pour élargir l’accès à ses modèles plus puissants est essentiel. L’activation de ces modes de «réflexion» — tout en se souvenant que la «pensée» de l’IA est algorithmique, et non humaine — peut transformer fondamentalement l’utilité et la fiabilité de l’IA générative, convertissant potentiellement les sceptiques en défenseurs.