Claude: ¡El chatbot con memoria llega para desafiar a OpenAI!
Anthropic ha presentado una función de memoria largamente esperada para su chatbot Claude, permitiendo a la IA recordar conversaciones pasadas y continuar proyectos en curso. Esta nueva capacidad, lanzada el lunes, marca un paso significativo para Claude, permitiendo a los usuarios retomar sin problemas donde lo dejaron sin necesidad de volver a explicar contextos u objetivos.
La compañía demostró la función en un video, ilustrando un escenario donde un usuario, al regresar de vacaciones, le pide a Claude que resuma sus discusiones anteriores. El chatbot escanea eficientemente las interacciones pasadas, proporciona una visión general concisa y luego se ofrece a reanudar el trabajo en el mismo proyecto. Anthropic enfatizó el beneficio, afirmando que la función asegura que los usuarios “nunca más pierdan el rastro de su trabajo”, fomentando la continuidad y la eficiencia al construir sobre ideas previas en lugar de empezar de cero.
Esta función de memoria está diseñada para una amplia accesibilidad, operando en plataformas web, de escritorio y móviles, y es capaz de segmentar diferentes proyectos y espacios de trabajo para mantener la organización. El lanzamiento inicial está dirigido a suscriptores de los niveles Max, Team y Enterprise de Claude, con una disponibilidad más amplia prevista pronto. Los usuarios pueden activar la función navegando a “Configuración” bajo su “Perfil” y activando la opción “Buscar y referenciar chats”.
Fundamentalmente, el enfoque de Anthropic sobre la memoria difiere de algunos competidores. A diferencia de ChatGPT de OpenAI, la memoria de Claude no es persistente ni siempre activa. Según el portavoz de Anthropic, Ryan Donegan, Claude solo recuperará y hará referencia a chats pasados cuando el usuario lo solicite explícitamente, y no construye un perfil de usuario continuo basado en estas interacciones. Esta distinción posiciona la memoria de Claude como una utilidad opcional y bajo demanda, en lugar de un mecanismo de aprendizaje inherente y continuo sobre el usuario.
La introducción de esta función subraya la intensa competencia en el floreciente panorama de la IA, donde desarrolladores líderes como Anthropic y OpenAI están inmersos en una rápida “carrera armamentista”. Ambas compañías están implementando implacablemente funcionalidades avanzadas, desde modos de voz sofisticados hasta ventanas de contexto expandidas y diversas categorías de suscripción, todo mientras atraen rondas de financiación cada vez mayores. La semana pasada, OpenAI lanzó GPT-5, mientras que Anthropic, según se informa, busca una nueva ronda de inversión que podría valorar la compañía en la asombrosa cifra de 170 mil millones de dólares. Las funciones de memoria son un campo de batalla clave en esta carrera, ya que se consideran vitales para aumentar el compromiso del usuario y la “fidelidad”, alentando a los usuarios a comprometerse con un único servicio de chatbot para sus necesidades continuas.
Sin embargo, las implicaciones más amplias de las funciones de memoria de la IA han generado recientemente un considerable debate público. Si bien se celebran por su utilidad para mantener el contexto conversacional, características como la memoria de ChatGPT también han sido objeto de escrutinio y preocupación. Algunos usuarios han adoptado controversialmente los chatbots como confidentes terapéuticos, lo que ha llevado a discusiones sobre los límites éticos y los posibles impactos psicológicos de tales interacciones. Los informes de usuarios que experimentan problemas de salud mental, a veces denominados “psicosis de ChatGPT”, han alimentado aún más estas conversaciones, destacando la compleja y evolutiva relación entre los humanos y los sistemas de IA cada vez más capaces. La función de memoria bajo demanda de Anthropic, por el contrario, podría verse como un enfoque más cauteloso a la luz de estas preocupaciones emergentes.