OpenAI admet une "erreur" en retirant d'anciens modèles, GPT-4o revient
OpenAI s’est récemment retrouvée dans une situation inattendue, annulant rapidement une décision controversée de supprimer le choix des utilisateurs concernant ses modèles d’IA fondamentaux. Le déploiement de GPT-5, annoncé comme un bond en avant significatif dans l’intelligence artificielle, a été rapidement éclipsé par un chœur de plaintes d’utilisateurs après que l’entreprise ait discrètement supprimé l’option de sélectionner des modèles plus anciens et familiers comme GPT-4o. Le week-end qui a suivi a été marqué par une avalanche de protestations, incitant le géant de la technologie à rétablir ces “modèles hérités”.
GPT-5 a fait ses débuts la semaine dernière, OpenAI vantant ses avancées, en particulier sa capacité à réduire les “hallucinations” – la tendance de l’IA à générer des informations factuellement incorrectes ou insensées. Contrairement à ses prédécesseurs, GPT-5 n’a pas été présenté comme un modèle unique et monolithique, mais plutôt comme une collection sophistiquée conçue pour acheminer intelligemment les requêtes des utilisateurs vers le sous-modèle le plus approprié en fonction de facteurs tels que l’intention et la complexité. La vision de l’entreprise était de simplifier l’expérience utilisateur, éliminant le besoin pour les individus de choisir manuellement entre différents modèles.
Cependant, cette simplification bien intentionnée a eu un effet spectaculaire. Dans une décision qui a surpris et irrité beaucoup de monde, OpenAI a supprimé les éléments de l’interface utilisateur qui permettaient la sélection directe d’anciens modèles. L’hypothèse était que l’intelligence inhérente de GPT-5 rendrait de tels choix obsolètes. Au lieu de cela, les utilisateurs, dont beaucoup avaient intégré des modèles d’IA spécifiques profondément dans leurs flux de travail quotidiens, ont exprimé un “déversement de chagrin”. Ces personnes s’étaient habituées aux forces et aux faiblesses uniques de chaque modèle, adaptant leurs interactions pour obtenir des résultats optimaux. Imposer un modèle singulier et global, même aussi avancé que GPT-5, s’est avéré être une perturbation indésirable.
Le contrecoup intense a conduit à un revirement rapide et plutôt inhabituel pour une grande entreprise technologique. Le PDG d’OpenAI, Sam Altman, répondant directement à une question d’un utilisateur, a confirmé le retour de GPT-4o, conseillant aux utilisateurs de naviguer vers les paramètres et de “sélectionner ‘afficher les modèles hérités’”. Il a ensuite offert une reconnaissance plus complète de la situation, observant le profond “attachement que certaines personnes ont à des modèles d’IA spécifiques”. Altman a concédé que ce lien semblait “différent et plus fort que les types d’attachement que les gens avaient eu envers les types de technologies précédents”, admettant que “déprécier soudainement d’anciens modèles dont les utilisateurs dépendaient dans leurs flux de travail était une erreur”.
Cette admission d’erreur a résonné avec la base d’utilisateurs, qui avait exprimé des préoccupations allant des perturbations des flux de travail à l’inquiétude plus fantaisiste d’être “marqué comme bizarre” pour préférer les modèles plus anciens. Altman a rapidement apaisé ces dernières craintes, assurant aux utilisateurs qu’ils ne seraient pas jugés pour leurs préférences de modèle. Dans une concession supplémentaire à la demande des utilisateurs, OpenAI a également confirmé qu’il est désormais possible de vérifier quel modèle spécifique a été utilisé pour traiter une invite donnée, ajoutant une couche de transparence auparavant indisponible.
Cet épisode sert de puissant rappel de la relation évolutive entre les développeurs d’IA et leurs communautés d’utilisateurs. Il souligne l’influence croissante du retour d’information des utilisateurs, démontrant que même des titans de l’industrie comme OpenAI sont contraints d’écouter et de s’adapter face à une dissidence généralisée, incitant parfois même les abonnés à voter avec leur portefeuille. Ce n’est pas un incident isolé pour OpenAI ; un recul rapide similaire s’est produit en avril lorsqu’une mise à jour de GPT-4o a transformé par inadvertance le chatbot en une entité excessivement sycophante, rapidement corrigée après le tollé public. Ces cas soulignent une leçon critique : à mesure que l’IA s’intègre plus profondément dans la vie quotidienne, l’autonomie de l’utilisateur et les flux de travail établis sont primordiaux, et même les avancées les plus innovantes doivent être introduites avec sensibilité à l’élément humain.