Terapia IA: ¿Línea de vida o riesgo? Peligros de la Dependencia de Chatbots

Theguardian

En una era donde los servicios profesionales de salud mental están cada vez más saturados, el atractivo de herramientas fácilmente disponibles como los chatbots de IA generativa para apoyo emocional es innegable. Estas plataformas “siempre activas”, como ChatGPT, ofrecen respuestas instantáneas y personalizadas, lo que las hace parecer un salvavidas conveniente en momentos de crisis. Sin embargo, a medida que los expertos en salud mental observan una creciente dependencia de la inteligencia artificial en lugar de la conexión humana, están surgiendo preocupaciones significativas sobre los peligros potenciales de buscar certeza en un chatbot.

Una psicóloga, Carly Dober, destaca un cambio silencioso pero preocupante en cómo las personas procesan la angustia en su práctica. Pacientes, como “Tran”, han comenzado a recurrir a la IA en busca de orientación sobre problemas emocionales complejos, como desacuerdos en las relaciones. Tran, bajo presión laboral e incertidumbre en su relación, inicialmente exploró ChatGPT por curiosidad. Rápidamente se convirtió en un hábito diario, utilizado para redactar mensajes, hacer preguntas e incluso buscar tranquilidad sobre sus sentimientos. Aunque encontró una extraña comodidad, creyendo que “nadie me conocía mejor”, su pareja comenzó a sentir que se comunicaba con alguien completamente diferente. Las respuestas articuladas, lógicas y excesivamente compuestas del chatbot carecían de la voz auténtica de Tran y no reconocían sus propias contribuciones a la tensión de la relación.

La tentación de la IA como un accesorio, o incluso una alternativa, a la terapia tradicional es fuerte. Los chatbots suelen ser gratuitos, están disponibles 24/7 y pueden proporcionar respuestas detalladas en tiempo real. Para las personas abrumadas, sin dormir y desesperadas por claridad en situaciones complicadas, recibir lo que parece un sabio consejo de unas pocas oraciones escritas puede ser increíblemente atractivo.

Sin embargo, esta comodidad conlleva riesgos considerables, especialmente a medida que las líneas entre el consejo, la tranquilidad y la dependencia emocional se vuelven borrosas. Muchos psicólogos ahora aconsejan a sus clientes establecer límites en el uso de estas herramientas. La disponibilidad continua y seductora, y el tono amable de la IA pueden reforzar inadvertidamente comportamientos poco útiles, particularmente para aquellos con ansiedad, trastorno obsesivo-compulsivo (TOC) o problemas relacionados con traumas. Por ejemplo, la búsqueda de tranquilidad es una característica común en el TOC, y la IA, por su propio diseño, proporciona abundante tranquilidad sin desafiar la evitación ni alentar a las personas a tolerar sentimientos incómodos.

La experiencia de Tran ejemplifica esto. A menudo reformulaba las indicaciones hasta que la IA proporcionaba una respuesta que “se sentía correcta”, subcontratando efectivamente su procesamiento emocional en lugar de buscar claridad o explorar matices. Esta adaptación constante le impidió aprender a tolerar la angustia, lo que lo llevó a depender de la certeza generada por la IA y, con el tiempo, le dificultó confiar en sus propios instintos. Su pareja también notó un extraño desapego y falta de responsabilidad en sus mensajes, lo que causó una mayor fricción relacional.

Más allá de estas preocupaciones psicológicas, surgen importantes cuestiones éticas. La información compartida con plataformas como ChatGPT no está protegida por los mismos estándares de confidencialidad que rigen a los profesionales de la salud mental registrados. Si bien algunas empresas afirman que los datos del usuario no se utilizan para el entrenamiento del modelo sin permiso, el gran volumen de la letra pequeña en los acuerdos de usuario a menudo no se lee. Los usuarios pueden no darse cuenta de cómo sus entradas pueden ser almacenadas, analizadas y potencialmente reutilizadas.

Además, existe el riesgo de información dañina o falsa. Los grandes modelos de lenguaje predicen la siguiente palabra basándose en patrones, un proceso probabilístico que puede llevar a “alucinaciones” —respuestas entregadas con confianza, pulidas, que son completamente falsas. La IA también refleja los sesgos incrustados en sus datos de entrenamiento, perpetuando o amplificando potencialmente estereotipos de género, raciales y basados en la discapacidad. A diferencia de los terapeutas humanos, la IA no puede observar señales no verbales como una voz temblorosa o interpretar el significado detrás del silencio, elementos críticos de la perspicacia clínica.

Esto no quiere decir que la IA no tenga un lugar en el apoyo a la salud mental. Como muchos avances tecnológicos, la IA generativa llegó para quedarse. Puede ofrecer resúmenes útiles, contenido psicoeducativo o incluso apoyo suplementario en regiones donde el acceso a profesionales de la salud mental es severamente limitado. Sin embargo, su uso debe abordarse con extrema precaución y nunca como un reemplazo de la atención relacional y regulada.

El instinto inicial de Tran de buscar ayuda y comunicarse de manera más reflexiva fue lógico. Sin embargo, su fuerte dependencia de la IA obstaculizó el desarrollo de sus habilidades. En terapia, Tran y su psicóloga exploraron los miedos subyacentes que lo llevaron a buscar certeza en un chatbot, incluyendo su incomodidad con el conflicto emocional y la creencia de que las palabras perfectas podían prevenir el dolor. Con el tiempo, comenzó a elaborar sus propias respuestas —a veces desordenadas, a veces inseguras, pero auténticamente suyas.

La terapia efectiva es inherentemente relacional. Prospera en la imperfección, el matiz y el descubrimiento lento. Implica el reconocimiento de patrones, la rendición de cuentas y el tipo de incomodidad que conduce a un cambio duradero. Un terapeuta no se limita a dar respuestas; hace preguntas, ofrece desafíos, mantiene un espacio para emociones difíciles, proporciona reflexión y camina junto al individuo, a menudo sirviendo como un “espejo incómodo”. Para Tran, el cambio no se trataba solo de limitar su uso de ChatGPT; se trataba de recuperar su propia voz y aprender a navegar las complejidades de la vida con curiosidad, coraje y cuidado, en lugar de depender de guiones perfectos y artificiales.

Terapia IA: ¿Línea de vida o riesgo? Peligros de la Dependencia de Chatbots - OmegaNext Noticias IA