PDG d'OpenAI : La plupart des utilisateurs abusent des fonctions avancées de ChatGPT

Fastcompany

Le récent lancement de GPT-5 d’OpenAI, annoncé par la société comme une avancée révolutionnaire, a rencontré une réaction étonnamment mitigée de la part du public. Des semaines d’intense battage médiatique et une présentation soignée en direct n’ont pas été suivies d’une acclamation généralisée, mais de confusion et même de colère parmi les utilisateurs des médias sociaux, dont beaucoup ont déploré la suppression de fonctionnalités clés sur lesquelles ils comptaient. Ce décalage entre les grandes attentes d’OpenAI et l’expérience utilisateur est rapidement devenu apparent, et par la suite, le PDG Sam Altman a involontairement mis en lumière le problème central : une partie significative des utilisateurs d’IA n’exploitent pas pleinement le potentiel de la technologie.

Dans une publication sur X, Altman a répondu aux préoccupations des abonnés payants Plus, qui contribuent 20 $ par mois pour accéder à un niveau supérieur du modèle, concernant une réduction drastique de leurs limites de débit de chatbot. Son explication a révélé une statistique révélatrice : avant la sortie de GPT-5, seulement 1 % des utilisateurs non payants et à peine 7 % des utilisateurs payants avaient déjà interrogé un “modèle de raisonnement” comme o3. Ces modèles de raisonnement sont conçus pour “réfléchir” aux problèmes avant de générer une réponse. Il est cependant crucial de se rappeler que les modèles d’IA ne possèdent pas de cognition humaine ; leur “réflexion” fait référence à un processus computationnel structuré de planification, de vérification et d’itération pour affiner les résultats.

L’écrasante majorité des utilisateurs, gratuits et payants, semblent privilégier la vitesse et les réponses immédiates plutôt que la profondeur et la précision que les modèles de raisonnement peuvent fournir. Cette tendance est comparable à l’achat d’une voiture haute performance que l’on ne conduit qu’en première ou deuxième vitesse, en se demandant ensuite pourquoi elle semble lente, ou à la participation à un jeu télévisé où l’on lance la première idée qui vient à l’esprit sans délibération. Une telle préférence pour l’immédiateté explique pourquoi de nombreux utilisateurs ont exprimé leur déception face à l’absence initiale de GPT-4o, un modèle hérité qui a ensuite été réactivé pour les utilisateurs payants de ChatGPT suite à une campagne vocale. Pourtant, lorsqu’on cherche des réponses auprès d’un chatbot, la qualité devrait sans doute primer. Une réponse légèrement plus lente mais plus précise est généralement bien plus précieuse qu’une réponse rapide mais incorrecte.

Les modèles de raisonnement nécessitent intrinsèquement plus d’efforts de calcul, consacrant des ressources à la planification, à la vérification et à l’affinage de leur production. Cette approche délibérée améliore considérablement la qualité des résultats, en particulier pour les tâches où la précision logique est primordiale. Cependant, ce temps de traitement accru se traduit également par des coûts opérationnels plus élevés pour les fournisseurs. Par conséquent, les entreprises d’IA proposent souvent par défaut des versions plus rapides et moins “réfléchies” de leurs modèles, exigeant des utilisateurs qu’ils optent explicitement pour les alternatives plus performantes, généralement via un menu déroulant. De plus, la tendance historique d’OpenAI à utiliser des conventions de nommage de modèles obscures n’a pas aidé, rendant difficile pour les utilisateurs de discerner s’ils accèdent à la version avancée “pensante” de GPT-5 ou à une variante moins performante. Suite aux retours des utilisateurs, la société travaillerait à simplifier cette distinction.

Pour beaucoup, attendre une minute supplémentaire pour une réponse IA supérieure est un inconvénient mineur, facilement gérable en configurant le modèle pour qu’il travaille et en s’occupant d’autres tâches. Cependant, ce bref délai est manifestement trop long pour certains. Même après le lancement de GPT-5, où l’option “réponses plus approfondies” est présentée de manière plus visible, seul un utilisateur payant sur quatre choisit d’activer ce mode plus délibéré.

Ces données offrent un aperçu crucial d’une question plus large concernant l’adoption de l’IA : Pourquoi seulement un tiers des Américains qui ont utilisé un chatbot le considèrent-ils comme “extrêmement” ou “très utile” – un taux deux fois inférieur à celui des experts en IA – tandis qu’un sur cinq le trouve “pas du tout utile”, soit le double du taux chez les experts ? La réponse semble maintenant plus claire : la plupart des gens n’utilisent tout simplement pas l’IA de manière efficace. Ils abordent des questions complexes et à plusieurs volets avec l’attente d’une réponse instantanée et non raffinée, un peu comme crier “Qu’est-ce que les macaronis au fromage” dans Le Juste Prix ou “42 $” dans Jeopardy! sans prendre le temps de considérer les nuances.

Pour véritablement exploiter la puissance de l’IA générative, les utilisateurs devraient tirer parti des efforts d’OpenAI pour améliorer l’accès à ses modèles plus avancés. En engageant les capacités de “réflexion” de ces chatbots – tout en se souvenant toujours qu’ils ne pensent pas vraiment comme les humains – les utilisateurs sont plus susceptibles de faire l’expérience du potentiel transformateur que les experts en IA reconnaissent déjà.