Le PDG d'OpenAI: La plupart des utilisateurs sous-exploitent l'IA

Fastcompany

La récente sortie de GPT-5, la dernière itération de ChatGPT d’OpenAI, le 7 août, a suscité un contraste frappant de réactions. OpenAI avait méticuleusement créé des semaines d’anticipation, culminant dans un dévoilement spectaculaire diffusé en direct qui annonçait le modèle comme une avancée révolutionnaire. Pourtant, parmi les utilisateurs des médias sociaux, la réponse fut notablement modérée, caractérisée davantage par la confusion et la frustration suite à la suppression de plusieurs modèles clés sur lesquels beaucoup comptaient.

Cette déconnexion significative entre les attentes élevées d’OpenAI et l’accueil plutôt tiède du public a été involontairement éclairée par le PDG Sam Altman par la suite. Son explication a révélé une vérité fondamentale : un grand nombre d’utilisateurs n’exploitent pas l’intelligence artificielle à son plein potentiel. Dans un article expliquant pourquoi OpenAI semblait léser ses utilisateurs Plus payants – qui versent 20 $ par mois pour un accès à un niveau supérieur du modèle – Altman a divulgué qu’à peine 1 % des utilisateurs non payants avaient interrogé un “modèle de raisonnement” comme o3 avant le lancement de GPT-5. Parmi les abonnés payants, ce chiffre n’a que légèrement augmenté pour atteindre 7 %.

Les modèles de raisonnement sont conçus pour “réfléchir” aux problèmes avant de formuler une réponse. Il est cependant crucial de se souvenir que les modèles d’IA ne sont pas humains et ne possèdent pas une cognition de type humain, malgré l’analogie utile de la “réflexion”. L’écrasante majorité des utilisateurs, gratuits et payants, contournaient ces capacités. Cette négligence est comparable à l’achat d’une voiture haute performance dont on n’utiliserait que la première et la deuxième vitesse, puis à se demander pourquoi l’expérience de conduite semble limitée ; ou à participer à un jeu-questionnaire et à lancer la première idée qui vient à l’esprit pour chaque question, quelle que soit la précision.

De nombreux utilisateurs, semble-t-il, privilégient la rapidité et la commodité immédiates à la qualité et à la profondeur des réponses des chatbots IA. Cette préférence était évidente dans la lamentation généralisée concernant la perte temporaire de GPT-4o, un ancien modèle qui a ensuite été restauré pour les utilisateurs payants de ChatGPT suite à une campagne concertée des utilisateurs. Cependant, lorsque l’on cherche des réponses auprès d’un chatbot sophistiqué, la précision et l’exhaustivité sont primordiales. Une réponse légèrement plus lente, plus délibérée et correcte est invariablement plus précieuse qu’une réponse rapide mais erronée.

Les modèles de raisonnement sont conçus pour déployer un effort de calcul plus important pour la planification, la vérification et l’itération avant de livrer leur résultat final. Cette délibération prolongée améliore considérablement les résultats pour les tâches où la précision logique est critique. Naturellement, ce processus est à la fois plus lent et plus gourmand en calcul, ce qui le rend plus coûteux pour les fournisseurs. Par conséquent, les développeurs d’IA proposent souvent par défaut les versions plus basiques, “non pensantes”, exigeant des utilisateurs qu’ils optent activement pour les alternatives plus performantes via un menu déroulant. À cette complexité s’ajoutaient les conventions de nommage de modèles d’OpenAI, auparavant opaques – un problème que GPT-5 a tenté de résoudre, bien qu’avec un succès limité. Les utilisateurs ont toujours du mal à discerner facilement s’ils accèdent à la version avancée “pensante” de GPT-5 ou à une variante moins performante. Reconnaissant les retours des utilisateurs, la société travaillerait sur l’amélioration de cet aspect.

Pour certains, attendre une minute pour une réponse IA complète plutôt qu’une seconde peut sembler négligeable ; on peut simplement lancer la requête et s’occuper d’autres tâches. Pourtant, pour beaucoup, même cette brève pause s’avère trop longue. Même après la sortie de GPT-5, où la distinction entre le “modèle phare” GPT-5 et “GPT-5 thinking” – qui promet explicitement “des réponses plus complètes” – est plus apparente, seulement un utilisateur payant sur quatre choisit l’option plus approfondie et plus complète.

Ces données révélatrices offrent un aperçu crucial d’une question plus large concernant l’adoption de l’IA : Pourquoi seulement environ un tiers des Américains ayant déjà utilisé un chatbot le considèrent-ils comme “extrêmement” ou “très” utile (un taux moitié moindre que chez les experts en IA), tandis qu’un sur cinq le juge “pas utile du tout” (deux fois le taux chez les experts) ? La réponse semble maintenant plus claire : la plupart des individus utilisent fondamentalement mal la technologie. Ils confient à des chatbots avancés des questions complexes et en plusieurs parties sans exploiter la capacité des modèles à un traitement réfléchi.

Par conséquent, pour véritablement exploiter la puissance de l’IA générative, les utilisateurs devraient tirer parti des efforts d’OpenAI pour améliorer l’accès aux modèles. En configurant consciemment l’IA sur ses modes de “réflexion” – tout en se souvenant qu’il s’agit d’un processus computationnel, et non d’une pensée humaine – les utilisateurs sont susceptibles de trouver l’expérience bien plus précieuse et convaincante. Cette approche représente le moyen le plus efficace d’interagir avec l’IA moderne.