Le PDG d'OpenAI explique le sous-emploi du potentiel de ChatGPT
Le dévoilement de GPT-5, la dernière itération de ChatGPT d’OpenAI, le 7 août, a rencontré un contraste frappant dans les réactions. Alors que l’entreprise a salué sa sortie comme un moment transformateur, soutenue par des semaines d’anticipation fervente et une démonstration minutieusement élaborée diffusée en direct, les utilisateurs des médias sociaux ont répondu avec un mélange de confusion et de frustration, en grande partie en raison de la suppression inattendue de plusieurs modèles familiers et largement utilisés.
À la suite de cette réception, le PDG d’OpenAI, Sam Altman, a involontairement mis en lumière la disparité significative entre les grandes attentes de l’entreprise pour GPT-5 et l’expérience réelle du public. Son explication, provoquée par les plaintes des utilisateurs concernant des limites de débit drastiquement réduites pour les abonnés Plus payants – qui investissent 20 dollars par mois pour accéder à un niveau supérieur du modèle – a révélé une observation cruciale : une vaste majorité d’utilisateurs n’exploitent pas l’IA à son plein potentiel. Plus précisément, avant la sortie de GPT-5, seulement 1 % des utilisateurs non payants et seulement 7 % des abonnés payants utilisaient un “modèle de raisonnement” comme o3.
Les modèles de raisonnement sont conçus pour traiter méticuleusement les problèmes et délibérer avant de formuler une réponse. Il est crucial de se rappeler, cependant, que ces modèles d’IA ne possèdent pas de conscience ou de processus de pensée similaires à ceux des humains. Pourtant, l’analogie tient : ne pas engager ces capacités avancées, comme l’a fait l’écrasante majorité des utilisateurs, revient à acheter un véhicule de haute performance mais à le conduire constamment en première ou deuxième vitesse seulement, puis à se demander pourquoi le trajet semble inefficace. Ou, pour utiliser une autre comparaison, c’est comme participer à un jeu-questionnaire et lancer la première réponse qui vient à l’esprit, plutôt que de prendre un moment pour considérer la question.
Cette préférence généralisée pour la vitesse et la gratification immédiate au détriment de la profondeur et de la qualité dans les interactions avec les chatbots d’IA explique pourquoi de nombreux utilisateurs ont déploré la suppression initiale de GPT-4o, un modèle précédent qui a été réactivé par la suite pour les utilisateurs payants de ChatGPT suite à un tollé public considérable. Bien que des réponses rapides puissent sembler pratiques, la vraie valeur d’un chatbot réside dans la précision et la perspicacité de ses réponses. Une réponse légèrement plus lente, plus délibérée et correcte l’emporte presque invariablement sur une réponse rapide mais erronée.
Les modèles de raisonnement exigent intrinsèquement plus d’effort de calcul, dédiant des ressources à la planification, à la vérification et à l’affinage de leurs sorties avant la livraison. Cette délibération améliorée améliore considérablement la qualité des résultats, en particulier pour les tâches où la précision logique est primordiale. Cependant, cette exhaustivité a un coût, tant en termes de temps de traitement qu’en termes de dépenses opérationnelles. Par conséquent, les fournisseurs d’IA proposent généralement des versions plus rapides et moins “réfléchies” par défaut, exigeant des utilisateurs qu’ils sélectionnent activement des alternatives plus performantes via des menus déroulants. Les conventions de dénomination des modèles d’OpenAI, souvent opaques, ont encore compliqué ce problème, rendant difficile pour les utilisateurs de discerner quelle version offrait des capacités de raisonnement supérieures. Bien que GPT-5 visait à simplifier cela, les retours des utilisateurs indiquent que la clarté reste un défi, incitant l’entreprise à affiner davantage son interface.
Pour beaucoup, attendre une minute pour une réponse complète générée par l’IA, plutôt qu’une seule seconde, est un inconvénient mineur qui peut être facilement géré par le multitâche. Pourtant, cette brève pause semble être un obstacle important pour d’autres. Même après le lancement de GPT-5, qui a rendu la distinction entre le “phare” GPT-5 et sa variante plus approfondie et “pensante” plus explicite, seulement un utilisateur payant sur quatre a opté pour les réponses approfondies.
Ces données offrent une explication cruciale pour une tendance plus large dans l’adoption de l’IA : pourquoi seulement environ un tiers des Américains ayant déjà utilisé un chatbot le considèrent comme extrêmement ou très utile – un taux deux fois moins élevé que celui rapporté par les experts en IA – et pourquoi un sur cinq le trouve pas utile du tout, soit le double du taux chez les experts. La réponse est maintenant plus claire : une partie substantielle des utilisateurs aborde l’IA de manière incorrecte. Ils confient aux chatbots des requêtes complexes et multifacettes sans inciter le système à engager ses capacités plus sophistiquées et délibératives, un peu comme proposer une estimation rapide et non vérifiée lors d’une émission de jeu exigeante.