Claude se souvient: Anthropic intensifie la guerre des IA contre OpenAI
Anthropic a dévoilé une fonction de mémoire très attendue pour son chatbot Claude, permettant à l’IA de se souvenir des conversations passées et de poursuivre les projets en cours. Cette nouvelle capacité, déployée lundi, marque une étape significative pour Claude, permettant aux utilisateurs de reprendre facilement là où ils s’étaient arrêtés sans avoir besoin de réexpliquer les contextes ou les objectifs.
L’entreprise a démontré la fonctionnalité dans une vidéo, illustrant un scénario où un utilisateur, de retour de vacances, demande à Claude de résumer ses discussions précédentes. Le chatbot scanne efficacement les interactions passées, fournit un aperçu concis, puis propose de reprendre le travail sur le même projet. Anthropic a souligné l’avantage, déclarant que la fonctionnalité garantit aux utilisateurs de “ne plus jamais perdre le fil de votre travail”, favorisant la continuité et l’efficacité en s’appuyant sur des idées précédentes plutôt que de repartir de zéro.
Cette fonction de mémoire est conçue pour une large accessibilité, fonctionnant sur les plateformes web, de bureau et mobiles, et est capable de segmenter différents projets et espaces de travail pour maintenir l’organisation. Le déploiement initial cible les abonnés des niveaux Max, Team et Enterprise de Claude, avec une disponibilité plus large prévue prochainement. Les utilisateurs peuvent activer la fonctionnalité en accédant aux “Paramètres” sous leur “Profil” et en activant l’option “Rechercher et référencer les chats”.
De manière cruciale, l’approche d’Anthropic en matière de mémoire diffère de celle de certains concurrents. Contrairement à ChatGPT d’OpenAI, la mémoire de Claude n’est ni persistante ni toujours active. Selon Ryan Donegan, porte-parole d’Anthropic, Claude ne récupérera et ne référencera les chats passés que si l’utilisateur le lui demande explicitement, et il ne construit pas de profil utilisateur continu basé sur ces interactions. Cette distinction positionne la mémoire de Claude comme un utilitaire opt-in, à la demande, plutôt qu’un mécanisme d’apprentissage inhérent et continu sur l’utilisateur.
L’introduction de cette fonctionnalité souligne l’intense concurrence dans le paysage florissant de l’IA, où des développeurs de premier plan comme Anthropic et OpenAI sont engagés dans une “course aux armements” rapide. Les deux entreprises déploient sans relâche des fonctionnalités avancées, des modes vocaux sophistiqués aux fenêtres contextuelles étendues et aux divers niveaux d’abonnement, tout en attirant des tours de financement toujours plus importants. La semaine dernière, OpenAI a lancé GPT-5, tandis qu’Anthropic chercherait un nouveau tour d’investissement qui pourrait valoriser l’entreprise à un montant stupéfiant de 170 milliards de dollars. Les fonctions de mémoire sont un champ de bataille clé dans cette course, car elles sont considérées comme vitales pour augmenter l’engagement et la “fidélisation” des utilisateurs, encourageant ces derniers à s’engager avec un seul service de chatbot pour leurs besoins continus.
Cependant, les implications plus larges des fonctions de mémoire de l’IA ont récemment suscité un débat public considérable. Bien que célébrées pour leur utilité à maintenir le contexte conversationnel, des fonctionnalités comme la mémoire de ChatGPT ont également suscité un examen minutieux et des préoccupations. Certains utilisateurs ont controversément adopté les chatbots comme confidents thérapeutiques, ce qui a conduit à des discussions sur les limites éthiques et les impacts psychologiques potentiels de telles interactions. Des rapports d’utilisateurs souffrant de problèmes de santé mentale, parfois qualifiés de “psychose ChatGPT”, ont alimenté ces conversations, soulignant la relation complexe et évolutive entre les humains et les systèmes d’IA de plus en plus performants. La fonction de mémoire à la demande d’Anthropic, en revanche, pourrait être considérée comme une approche plus prudente à la lumière de ces préoccupations émergentes.