GPT-5 échoue à unifier l'IA ; ChatGPT réintroduit un sélecteur complexe

Techcrunch

Le récent lancement de GPT-5 par OpenAI visait à inaugurer une nouvelle ère de simplicité pour les utilisateurs de ChatGPT, l’entreprise vantant un modèle d’IA « taille unique ». Cette vision ambitieuse incluait un système de routage intelligent conçu pour déterminer automatiquement la manière optimale de répondre aux requêtes des utilisateurs, rendant idéalement obsolète le menu complexe de sélection de modèles — une fonctionnalité pour laquelle le PDG d’OpenAI, Sam Altman lui-même, a publiquement exprimé son dédain. Cependant, cette approche unifiée s’est rapidement avérée plus difficile que prévu.

Juste une semaine après les débuts de GPT-5, Altman a annoncé un pivot significatif sur X, réintroduisant une interface de sélection de modèles pour GPT-5. Les utilisateurs peuvent désormais choisir entre les paramètres « Auto », « Rapide » et « Réflexion ». Tandis que l’option « Auto » vise à reproduire le système de routage initial de GPT-5, les nouveaux modes « Rapide » et « Réflexion » offrent aux utilisateurs un contrôle direct, leur permettant de contourner le routeur automatisé et de sélectionner des modèles optimisés respectivement pour la vitesse ou un traitement plus approfondi. Par exemple, le modèle « Réflexion » est assorti d’une limite de 3 000 messages par semaine, avec des options pour une capacité supplémentaire.

Ajoutant une autre couche de complexité, OpenAI a également rétabli l’accès à plusieurs modèles d’IA hérités pour les abonnés payants, y compris GPT-4o, GPT-4.1 et o3, qui avaient été progressivement supprimés quelques jours auparavant. GPT-4o est désormais une option par défaut dans le sélecteur de modèles remanié, d’autres modèles plus anciens pouvant être ajoutés depuis les paramètres de ChatGPT. Ce revirement rapide souligne les défis auxquels OpenAI est confronté pour concilier innovation et attentes et préférences des utilisateurs.

Altman a reconnu ces défis, notant qu’OpenAI travaille activement à affiner la personnalité de GPT-5 pour qu’elle soit plus « chaleureuse » tout en évitant l’« agacement » perçu de GPT-4o. Plus largement, il a souligné la nécessité d’une plus grande personnalisation par utilisateur des personnalités des modèles, reconnaissant qu’une seule personnalité d’IA pourrait ne pas satisfaire une base d’utilisateurs diversifiée. La réapparition rapide d’un menu de sélection de modèles multifacette suggère que le système de routage automatisé de GPT-5, malgré sa promesse, n’a pas universellement répondu aux besoins des utilisateurs.

Le déploiement initial de GPT-5 a été accueilli avec de grandes attentes, beaucoup espérant qu’il représenterait un bond comparable à GPT-4. Pourtant, l’expérience a été notablement plus rude. La dépréciation de modèles populaires comme GPT-4o a provoqué un tollé considérable chez les utilisateurs, révélant une profondeur d’attachement inattendue que les utilisateurs avaient développée envers les réponses et les « personnalités » spécifiques de ces systèmes d’IA. En réponse, Altman s’est engagé à fournir un préavis suffisant si GPT-4o devait à nouveau être déprécié. De plus, le système de routage de GPT-5 aurait rencontré des problèmes significatifs le jour du lancement, ce qui a conduit certains utilisateurs à percevoir le nouveau modèle comme moins performant que ses prédécesseurs. Le vice-président de ChatGPT chez OpenAI, Nick Turley, a abordé la situation sur X, déclarant : « Nous n’allons pas toujours tout réussir du premier coup, mais je suis très fier de la rapidité avec laquelle l’équipe peut itérer. »

La tâche de router intelligemment les requêtes vers le modèle d’IA le plus approprié est intrinsèquement difficile. Elle nécessite des décisions instantanées qui alignent les capacités et la personnalité d’un modèle d’IA avec les préférences spécifiques d’un utilisateur et la nature de sa requête. Au-delà de la simple vitesse de réponse, les utilisateurs développent souvent des préférences pour des nuances comme la verbosité d’un modèle, son approche analytique ou même sa volonté d’offrir des points de vue contradictoires.

Ce phénomène émergent de l’attachement humain à des modèles d’IA spécifiques est un aspect relativement nouveau et pas encore entièrement compris de l’interaction humain-IA. Dans un exemple frappant, des « funérailles » ont été organisées à San Francisco pour Claude 3.5 Sonnet d’Anthropic lorsqu’il a été mis hors ligne, soulignant les liens émotionnels que certaines personnes tissent avec ces entités numériques. Bien que de telles connexions puissent être bénignes, elles soulèvent également des questions sur les dépendances malsaines potentielles ou les impacts psychologiques imprévus. En fin de compte, les récents événements concernant GPT-5 soulignent qu’OpenAI a encore un travail considérable à faire pour adapter ses modèles d’IA avancés aux préférences diverses et évolutives de ses utilisateurs.

GPT-5 échoue à unifier l'IA ; ChatGPT réintroduit un sélecteur complexe - OmegaNext Actualités IA