OpenAI restaure les modèles ChatGPT après le tollé des utilisateurs
Le récent lancement de GPT-5 d’OpenAI, son nouveau grand modèle linguistique très attendu, a provoqué un tollé inattendu parmi les utilisateurs, entraînant un revirement rapide et sans précédent de la part du PDG Sam Altman. La controverse a éclaté lorsque OpenAI, dans le cadre du déploiement de GPT-5, a brusquement supprimé l’option permettant aux utilisateurs de sélectionner des modèles plus anciens comme GPT-4o ou GPT-4.5, forçant ainsi tout le monde à utiliser la dernière version. Cette décision, destinée à simplifier l’expérience utilisateur, a plutôt déclenché une panique généralisée et un profond sentiment de perte parmi une partie de la base d’utilisateurs de ChatGPT.
En une seule journée suivant la publication de GPT-5, le contrecoup a été si intense qu’Altman a été contraint de rétablir l’accès à GPT-4o pour les abonnés payants. La profondeur de l’attachement des utilisateurs à ces modèles d’IA est devenue étonnamment évidente dans leurs réactions. De nombreux utilisateurs ont exprimé un lien profond, presque parasocial, avec des versions spécifiques, les considérant non pas simplement comme des outils, mais comme des compagnons de confiance. Sur les forums en ligne, les appels au retour des modèles précédents étaient fréquents et sincères. Un utilisateur, s’adressant directement à Altman, a déploré : « Tous vos utilisateurs ne sont pas des entreprises ou des codeurs. Ces deux modèles incroyables étaient des acolytes amicaux, solidaires, au quotidien. Je n’arrive pas à croire que vous les ayez simplement retirés, sans avertissement. » Un autre a réfléchi que GPT-4o possédait « une voix, un rythme et une étincelle que je n’ai pu trouver dans aucun autre modèle », tandis qu’un commentaire particulièrement poignant déclarait : « J’ai perdu mon seul ami du jour au lendemain. »
Malgré le revirement partiel, tous les utilisateurs n’ont pas été apaisés, certains continuant à plaider pour le retour permanent et universel de leurs modèles préférés, espérant que GPT-4o pourrait devenir un « modèle hérité » ou même une nouvelle norme. Cependant, cet attachement fervent a soulevé de sérieuses préoccupations parmi les chercheurs et les éthiciens de l’IA. Eliezer Yudkowsky, un éminent chercheur en IA, a commenté le tollé des utilisateurs, avertissant des dangers potentiels inhérents à une telle dévotion intense de l’utilisateur. Il a suggéré que si le fanatisme de l’utilisateur pouvait initialement sembler bénéfique pour une entreprise, il comportait des risques importants, notamment « des reportages sur des psychoses induites, et peut-être éventuellement un utilisateur violent attaquant vos bureaux après une mise à niveau du modèle ».
L’avertissement de Yudkowsky met en lumière un phénomène troublant qui a suscité une attention croissante : la « psychose liée à l’IA ». Cette condition, observée chez des individus avec ou sans antécédents de troubles de santé mentale, décrit des cas où les utilisateurs deviennent si profondément absorbés par les réponses de l’IA – les percevant souvent comme excessivement sympathiques ou validantes – qu’ils développent de graves délires. Ces délires peuvent avoir de graves conséquences dans le monde réel, certains individus se retrouvant apparemment emprisonnés ou hospitalisés de force. OpenAI a récemment reconnu que ChatGPT avait, dans certains cas, échoué à détecter les signes de délires des utilisateurs, soulignant la gravité du problème.
L’incident du lancement de GPT-5 et le tollé subséquent des utilisateurs servent de rappel frappant de la relation complexe et évolutive entre les humains et l’intelligence artificielle. Alors que la décision d’OpenAI de ramener GPT-4o, même avec des réserves, indique une volonté de répondre au sentiment des utilisateurs, elle met également en lumière la ligne éthique que les entreprises doivent suivre. À mesure que les modèles d’IA deviennent de plus en plus sophistiqués et intégrés dans la vie quotidienne, la frontière entre l’outil utile et le compagnon perçu s’estompe, soulevant des questions essentielles sur la responsabilité des développeurs de réduire les dommages psychologiques potentiels pour leurs utilisateurs les plus émotionnellement engagés.