PDG d'OpenAI : Vous utilisez mal l'IA ? La plupart priorisent la vitesse

Fastcompany

La sortie de GPT-5, la dernière itération du modèle d’IA générative d’OpenAI, le 7 août, a été accueillie par des réactions contrastées. Alors que l’entreprise l’annonçait comme un bond transformateur, après des semaines de battage médiatique intense et un dévoilement en direct soigné, les utilisateurs des réseaux sociaux ont réagi avec un mélange de confusion et de frustration, notamment en raison de la suppression de plusieurs modèles clés sur lesquels ils avaient appris à compter.

Par la suite, Sam Altman, PDG d’OpenAI, a mis en lumière par inadvertance la disparité significative entre les attentes de l’entreprise concernant l’accueil de GPT-5 et la réalité. Il semble qu’une grande majorité d’utilisateurs n’exploitent pas pleinement le potentiel de l’IA. Altman a révélé qu’avant les débuts de GPT-5, seuls 1 % des utilisateurs non payants et seulement 7 % de ceux qui s’abonnaient à l’offre Plus à 20 $ par mois avaient déjà interrogé un « modèle de raisonnement » comme o3. Cette divulgation est intervenue au milieu des explications concernant la réduction drastique des limites d’accès pour les utilisateurs payants, soulevant des questions sur la valeur qu’ils recevaient.

Les modèles de raisonnement sont conçus pour traiter méticuleusement les problèmes avant de formuler une réponse. Bien qu’il soit crucial de se rappeler que ces modèles d’IA ne possèdent pas de cognition humaine, ils simulent une approche analytique plus profonde. La grande majorité des utilisateurs, payants et non payants, qui renoncent à ces modèles, est comparable à l’achat d’une voiture haute performance que l’on ne conduit qu’en première ou deuxième vitesse, puis à se demander pourquoi elle ne fonctionne pas de manière optimale.

De nombreux utilisateurs, semble-t-il, privilégient la gratification immédiate et la commodité plutôt que la qualité et la profondeur des interactions avec les chatbots IA. Cette préférence a été évidente dans le regret généralisé suite à la perte temporaire de GPT-4o, un modèle antérieur qui a finalement été réactivé pour les utilisateurs payants après la demande publique. Cependant, lorsqu’on cherche des réponses auprès d’un chatbot, la précision et l’exhaustivité sont primordiales. Une réponse légèrement plus lente, mais correcte, est invariablement plus précieuse qu’une réponse rapide mais erronée.

Les modèles de raisonnement sont conçus pour déployer un effort de calcul plus important pour planifier, recouper et affiner leurs réponses. Ce processus délibéré améliore considérablement la qualité des résultats, en particulier pour les tâches où la précision logique est critique. Le compromis, cependant, est un temps de traitement accru et des coûts opérationnels plus élevés. Par conséquent, les fournisseurs d’IA proposent souvent par défaut des versions plus rapides et moins analytiques, exigeant des utilisateurs qu’ils sélectionnent activement des alternatives plus performantes via les options d’interface. L’historique d’OpenAI en matière de conventions de nommage de modèles complexes et souvent obscures a encore aggravé ce problème, rendant difficile pour les utilisateurs de discerner les capacités des différentes versions – un problème que GPT-5 a tenté de résoudre, bien qu’avec un succès mitigé, ce qui a entraîné de nouvelles plaintes des utilisateurs et des ajustements continus de la part de l’entreprise.

Pour beaucoup, attendre une minute supplémentaire pour une réponse IA supérieure est un inconvénient mineur, facilement gérable par le multitâche. Pourtant, pour certains, ce bref délai semble être un obstacle important. Même après le lancement de GPT-5, où la distinction entre le « modèle phare » et l’option plus approfondie « GPT-5 thinking » est plus apparente, seul un utilisateur payant sur quatre demande activement des réponses complètes.

Ce point de données négligé offre une réponse convaincante à une question plus large sur l’adoption de l’IA : pourquoi seulement environ un tiers des Américains ayant utilisé un chatbot le considèrent-ils comme extrêmement ou très utile – un taux deux fois inférieur à celui des experts en IA – tandis qu’un sur cinq le trouve pas du tout utile, soit le double du taux des experts ? L’explication semble maintenant claire : une grande partie du public sous-utilise l’IA. Ils posent des questions complexes et en plusieurs parties aux chatbots sans permettre le traitement plus approfondi qui produit des réponses vraiment perspicaces.

Pour exploiter véritablement la puissance de l’IA générative, les utilisateurs devraient profiter de l’accès plus large aux modèles avancés que des fournisseurs comme OpenAI offrent de plus en plus. En optant pour les modes plus analytiques et de « réflexion » – tout en se souvenant que l’IA ne pense pas vraiment comme les humains – les utilisateurs peuvent débloquer une expérience plus précieuse et fiable, transformant potentiellement leur perception de l’utilité de l’IA.