PDG d'OpenAI: La plupart des utilisateurs ratent la puissance de ChatGPT
Le lancement très attendu de GPT-5 d’OpenAI, le 7 août, a été accueilli par un contraste saisissant dans les réactions. Alors que l’entreprise annonçait sa dernière itération de ChatGPT comme une avancée qui changerait le monde, après des semaines d’intense battage médiatique et un dévoilement soigné en direct, les utilisateurs des médias sociaux ont répondu avec un mélange de confusion et de frustration, en grande partie dû à la suppression inattendue de plusieurs modèles populaires hérités.
Dans la foulée, Sam Altman, PDG d’OpenAI, a involontairement mis en lumière le fossé significatif entre les attentes de l’entreprise concernant la réception de GPT-5 et la réalité. Il semble qu’une grande majorité d’utilisateurs n’exploitent pas la pleine puissance de l’intelligence artificielle. Altman, dans un article expliquant les ajustements des limites de débit pour les utilisateurs payants Plus — qui paient 20 dollars par mois pour accéder à un niveau supérieur du modèle — a révélé une statistique frappante : avant la sortie de GPT-5, seulement 1 % des utilisateurs non payants et à peine 7 % des utilisateurs payants interrogeaient activement un “modèle de raisonnement”.
Les modèles de raisonnement sont conçus pour “réfléchir en profondeur” aux problèmes avant de formuler une réponse, s’engageant dans un processus de calcul plus délibéré. Cela implique de planifier, de vérifier et d’itérer pour affiner les résultats, particulièrement pour les tâches où la précision logique est primordiale. Cependant, il est crucial de se rappeler que, malgré le terme “penser”, les modèles d’IA n’opèrent pas avec la cognition ou la conscience humaine. Le fait que l’écrasante majorité des utilisateurs, gratuits et payants, évitent ces modèles plus performants est comparable à l’achat d’une voiture haute performance que l’on ne conduirait constamment qu’en première ou deuxième vitesse, s’interrogeant ensuite sur son manque perçu d’efficacité. C’est comme un candidat de jeu télévisé qui lâche la première réponse qui lui vient à l’esprit, quelle que soit sa précision.
De nombreux utilisateurs, semble-t-il, privilégient la vitesse et la commodité immédiates à la qualité et la profondeur des interactions avec les chatbots d’IA. Cette préférence était évidente dans le regret généralisé concernant la suppression temporaire de GPT-4o, un modèle hérité qui a ensuite été réactivé pour les utilisateurs payants de ChatGPT suite à une campagne concertée des utilisateurs. Pourtant, lorsque l’on recherche des réponses auprès d’une IA sophistiquée, la précision et l’exhaustivité sont souvent primordiales. Une réponse légèrement plus lente et plus délibérée est fréquemment supérieure à une réponse rapide mais potentiellement incorrecte.
Le compromis inhérent aux modèles de raisonnement est que leur délibération accrue exige plus d’effort de calcul, ce qui les rend plus lents et plus coûteux à opérer. Par conséquent, les fournisseurs d’IA proposent généralement des versions plus rapides et moins intensives en calcul par défaut, exigeant des utilisateurs qu’ils optent activement pour les alternatives plus approfondies, souvent via un menu déroulant. Les conventions de dénomination des modèles d’OpenAI, souvent opaques par le passé, ont encore compliqué ce choix, rendant difficile pour les utilisateurs de discerner s’ils accédaient à la version plus capable, “pensante”. L’entreprise a depuis commencé à ajuster cela en réponse aux commentaires des utilisateurs.
Même avec la sortie de GPT-5, où la distinction entre le modèle phare et son mode “pensant” — offrant “des réponses plus approfondies” — est plus apparente, seul un utilisateur payant sur quatre choisit actuellement de privilégier l’exhaustivité. Pour beaucoup, la brève attente d’une minute contre une seconde pour une réponse de l’IA est évidemment trop longue, malgré la possibilité de faire plusieurs tâches pendant que le modèle traite.
Ce comportement d’utilisateur fournit une réponse convaincante à une question significative concernant l’adoption de l’IA : pourquoi seulement environ un tiers des Américains qui ont utilisé un chatbot le considèrent-ils “extrêmement” ou “très” utile (un taux deux fois moins élevé que celui des experts en IA), tandis qu’un sur cinq le trouve “pas utile du tout” (deux fois le taux parmi les experts) ? Le problème sous-jacent est clair : une grande partie du public utilise fondamentalement mal l’IA. Ils tentent de s’attaquer à des questions complexes et en plusieurs parties sans permettre à l’IA de s’engager dans le processus de “pensée” computationnelle nécessaire, traitant effectivement un outil sophistiqué comme une simple machine à réponses instantanées.
Pour véritablement tirer parti de l’IA générative, les utilisateurs devraient profiter des efforts des fournisseurs pour rendre les modèles plus performants accessibles. Engager l’IA dans ses modes “pensants”, tout en se souvenant que ce n’est pas de la pensée humaine, peut débloquer des résultats significativement plus précieux et précis, favorisant une relation plus productive avec cette technologie en évolution.