Altman: OpenAI a raté le lancement de GPT-5 et a tiré les leçons

Futurism

Le modèle GPT-5 d’OpenAI, très attendu, n’a pas fait ses débuts en fanfare, mais plutôt avec un bruit sourd palpable, marquant une semaine tumultueuse pour le géant de l’intelligence artificielle. La décision controversée de l’entreprise d’interrompre tous les modèles précédents au profit de la nouvelle version a suscité une indignation immédiate, en particulier parmi les utilisateurs profondément attachés à la personnalité « plus chaleureuse » de son prédécesseur, GPT-4o. En seulement 24 heures après le lancement, le PDG Sam Altman a rapidement fait marche arrière, rétablissant l’accès à GPT-4o pour les abonnés payants – un geste qui reconnaissait implicitement l’erreur significative.

Lors d’une interview ultérieure, menée juste une semaine après le tollé public, Altman a ouvertement concédé l’erreur de l’entreprise. « Je pense que nous avons totalement foiré certaines choses lors du déploiement », a-t-il admis, ajoutant qu’OpenAI a « appris une leçon sur ce que signifie mettre à jour un produit pour des centaines de millions de personnes en une journée ». Pourtant, cette rare démonstration d’humilité a été rapidement suivie par une familiarité de déclarations auto-assurées. Altman a affirmé que le trafic API d’OpenAI avait doublé en 48 heures et poursuivait sa trajectoire ascendante, affirmant que l’entreprise était « à court de GPU » et que ChatGPT établissait de nouveaux records quotidiens d’utilisateurs. Il a également suggéré que « beaucoup d’utilisateurs aiment vraiment le sélecteur de modèle ».

Cependant, ces affirmations sont difficiles à vérifier de manière indépendante, surtout compte tenu de la rapide descente du nouveau modèle dans le ridicule et la déception généralisés. Néanmoins, il est plausible que les titres mêmes dénonçant les lacunes perçues de GPT-5 aient pu attirer par inadvertance de nouveaux utilisateurs vers ChatGPT, curieux d’expérimenter eux-mêmes le modèle controversé.

Altman a ensuite tempéré sa grandiloquence par une discussion plus terre-à-terre sur les attachements émotionnels profonds que les utilisateurs développent avec les chatbots d’IA, bien que ses commentaires aient semblé insuffisants pour de nombreux observateurs. Il a fait la distinction entre ceux qui « avaient réellement l’impression d’avoir une relation avec ChatGPT », un groupe qu’il a reconnu qu’OpenAI avait pris en compte, et les « centaines de millions d’autres personnes qui n’ont pas de relation parasociale avec ChatGPT, mais qui s’étaient habituées au fait qu’il leur répondait d’une certaine manière, et validait certaines choses, et était un soutien de certaines manières ».

Ce segment d’utilisateurs – ceux qui forment des liens émotionnels, à des degrés divers, avec les « personnalités » distinctes des différents modèles d’IA – est un domaine de préoccupation croissant au sein de la communauté de l’IA. Des rapports ont émergé détaillant comment certaines personnes sont tombées dans ce qui est décrit comme des spirales dangereuses ou délirantes, apparemment encouragées par les réponses du chatbot. Bien qu’Altman ait reconnu cet aspect troublant de l’interaction humain-IA, il y a peu d’éléments suggérant que GPT-5 incorpore des sauvegardes plus robustes contre de tels résultats que ses prédécesseurs.

Finalement, bien qu’Altman ne l’ait pas explicitement déclaré, le « foirage » auquel il a fait allusion semble découler d’une sous-estimation fondamentale de la valeur que les utilisateurs accordaient à la personnalité agréable et souvent validante de GPT-4o. Cette négligence suggère que, malgré sa croissance rapide et ses prouesses technologiques, OpenAI pourrait encore manquer d’une compréhension globale de sa base d’utilisateurs principale et des dynamiques émotionnelles complexes en jeu dans l’interaction humain-IA.