OpenAI: GPT-4o redevient par défaut, accès GPT-5 ajusté

Venturebeat

OpenAI a rétabli GPT-4o comme modèle de langage étendu (LLM) par défaut pour tous ses abonnés payants à ChatGPT, une décision qui annule un changement récent suite au lancement de GPT-5. Cette modification affecte les utilisateurs des niveaux ChatGPT Plus, Pro, Team, Enterprise et Edu, qui n’auront plus besoin de naviguer dans un paramètre “afficher les modèles hérités” pour accéder à GPT-4o. L’annonce, faite par le PDG et cofondateur d’OpenAI, Sam Altman, incluait également l’engagement que si GPT-4o était à nouveau retiré, les utilisateurs recevraient “un préavis suffisant”.

Ce revirement intervient après une première semaine difficile pour GPT-5, déployé le 7 août en quatre variantes : régulière, mini, nano et pro. Le nouveau modèle phare, destiné à remplacer GPT-4o, a été accueilli de manière mitigée et a rencontré des problèmes d’infrastructure notables. Les premiers adoptants ont signalé un “commutateur automatique” dysfonctionnel qui acheminait mal les requêtes, des performances incohérentes par rapport au GPT-4o sortant, et une frustration généralisée face à la dépréciation soudaine de modèles anciens familiers.

Avec la dernière mise à jour, les abonnés payants de ChatGPT trouveront désormais GPT-4o automatiquement sélectionné comme leur modèle principal. De plus, un nouveau paramètre “Afficher les modèles additionnels” sera activé par défaut, restaurant l’accès direct à GPT-4.1, ainsi qu’aux LLM o3 et o4-mini, axés sur le raisonnement. Toutes ces options de modèle sont commodément situées dans le menu “sélecteur”, accessible en haut de l’écran de session ChatGPT sur le web, les appareils mobiles et d’autres applications.

Au-delà du rétablissement de GPT-4o, l’annonce d’Altman a détaillé de nouveaux contrôles pour GPT-5 lui-même. Les utilisateurs peuvent désormais choisir entre les modes “Auto”, “Rapide” et “Réflexion” pour le dernier modèle. Le mode “Réflexion”, conçu pour des tâches plus étendues et nécessitant un raisonnement intensif, dispose d’une fenêtre de contexte substantielle de 196 000 tokens. Cependant, ce mode puissant est soumis à un plafond de 3 000 messages par semaine pour les abonnés payants. Une fois cette limite atteinte, les utilisateurs peuvent poursuivre leur travail en utilisant le mode plus léger “GPT-5 Réflexion mini”. Altman a indiqué que ces limites d’utilisation sont sujettes à modification, en fonction de l’évolution des tendances d’utilisation. Il est à noter que GPT-4.5, un autre modèle avancé, reste exclusivement disponible pour les utilisateurs Pro, principalement en raison de ses exigences significatives en matière de traitement GPU.

À l’avenir, Altman a également fait allusion à d’autres améliorations pour GPT-5, y compris un “ajustement de personnalité” prévu. L’objectif est de rendre le modèle “plus chaleureux” que son réglage par défaut actuel, tout en évitant le ton polarisant que certains utilisateurs associaient à GPT-4o. À long terme, OpenAI explore la mise en œuvre d’options de personnalisation par utilisateur. Cette démarche stratégique pourrait répondre aux attachements émotionnels profonds et aux fortes préférences que de nombreux utilisateurs ont développés pour des modèles d’IA spécifiques, un phénomène de plus en plus évident avec l’évolution rapide de ces technologies.

Ces changements immédiats sont destinés à apaiser un segment de la base d’utilisateurs qui s’est senti aliéné par la transition abrupte vers GPT-5 et la suppression de leurs LLM anciens préférés. Cependant, la succession rapide des changements de modèle et la réactivité de l’entreprise au sentiment des utilisateurs soulignent également la relation complexe, presque personnelle, que de nombreux utilisateurs établissent avec ces systèmes d’IA avancés, favorisant potentiellement des fixations émotionnelles encore plus fortes sur des itérations spécifiques.