OpenAI corrige le "crime graphique" de la présentation GPT-5 en direct

Businessinsider

La très attendue diffusion en direct de GPT-5 par OpenAI, le jeudi 7 août 2025, destinée à présenter les dernières avancées de l’entreprise en matière d’intelligence artificielle, s’est rapidement retrouvée sous les projecteurs, les spectateurs ayant relevé des inexactitudes flagrantes dans plusieurs graphiques présentés. Ce que le PDG Sam Altman a rapidement qualifié de “grosse pagaille graphique” et un membre de l’équipe OpenAI de “crime graphique involontaire” a immédiatement suscité des discussions sur les réseaux sociaux et au sein de la communauté technologique.

L’une des erreurs les plus frappantes est apparue dans un graphique comparant le taux de “tromperie de code” de GPT-5 à celui du modèle o3 d’OpenAI. Les données indiquaient que GPT-5 avait un taux de tromperie de 50 %, légèrement pire que les 47,4 % de o3. Pourtant, la représentation visuelle montrait GPT-5 avec une barre disproportionnellement plus petite, suggérant de manière trompeuse une performance supérieure. OpenAI a ensuite corrigé cela dans un article de blog, révisant le taux de tromperie réel de GPT-5 à un taux significativement inférieur de 16,5 %. Un autre graphique problématique comparait GPT-5, o3 et GPT-4o sur une métrique de performance différente. Alors que GPT-5 obtenait un score de 74,9, o3 de 69,1 et GPT-4o de 30,8, les barres graphiques pour o3 et GPT-4o apparaissaient presque identiques en longueur, malgré une différence numérique substantielle, minimisant ainsi les véritables distinctions entre les modèles. Un autre exemple de fausse représentation visuelle a été observé dans un graphique de précision où la précision de 52,8 % de GPT-5 (avec le mode “réflexion” activé) était visuellement plus élevée que les 69,1 % de o3, et les 69,1 % de o3 étaient représentés au même niveau que les 30,8 % de GPT-4o.

La réaction rapide du public, avec des utilisateurs sur des plateformes comme X (anciennement Twitter) soulignant les divergences, a provoqué une réponse rapide de la direction d’OpenAI. Sam Altman a publiquement reconnu les erreurs, déclarant : “wow, une grosse pagaille graphique de notre part plus tôt.” Parallèlement, un membre du personnel marketing d’OpenAI a publié des excuses en ligne, admettant le “crime graphique involontaire” et confirmant que des versions corrigées des graphiques avaient été rapidement téléchargées sur le blog officiel de l’entreprise.

Cet incident, survenu lors de l’un des lancements d’IA les plus attendus de l’année, souligne l’importance cruciale de l’intégrité des données et de la communication transparente pour les entreprises technologiques. Il met en évidence comment même des représentations visuelles mineures peuvent éroder la confiance et générer du scepticisme, en particulier pour les entreprises opérant à l’avant-garde des technologies transformatrices comme l’intelligence artificielle. L’admission rapide et la correction par OpenAI démontrent une prise de conscience de la responsabilité, mais l’épisode soulève des questions plus larges sur le contrôle qualité interne et la vérification rigoureuse des supports de présentation, en particulier lorsque des démonstrations de produits à enjeux élevés sont impliquées. Certains observateurs ont même spéculé sur la possibilité qu’OpenAI ait utilisé ses propres modèles d’IA pour générer les visuels défectueux, une idée que l’entreprise n’a pas abordée.

Malgré la controverse des graphiques, le lancement de GPT-5 a marqué une étape importante pour OpenAI. Le modèle est présenté comme le plus puissant de l’entreprise à ce jour, promettant des améliorations substantielles en matière de précision, de vitesse et de capacités de raisonnement. GPT-5 introduit un système unifié conçu pour sélectionner automatiquement le meilleur modèle pour une invite donnée, offre de meilleures “complétions sécurisées” pour des réponses plus utiles et transparentes, et présente une logique et une auto-évaluation améliorées, conduisant à une réduction signalée des hallucinations. Il est déployé pour tous les niveaux d’utilisateurs, y compris les utilisateurs gratuits, Plus, Pro et Team, dans le but de rendre les expériences d’IA plus intelligentes, plus sûres et plus personnelles à travers diverses applications, du codage aux conseils liés à la santé.

Alors que le “crime graphique” a servi de détour inattendu lors du dévoilement de GPT-5, la reconnaissance rapide et la rectification des erreurs par OpenAI ont apporté une mesure de transparence. L’incident rappelle clairement que même les leaders de l’industrie doivent respecter les normes les plus élevées en matière de présentation des données, en veillant à ce que les visuels reflètent fidèlement les chiffres sous-jacents, en particulier lors de l’introduction de technologies révolutionnaires à un public mondial.