La confesión secreta de una hija a ChatGPT antes de quitarse la vida

Nytimes

Sophie Rottenberg, una vibrante analista de políticas de salud pública de 29 años, había escalado el Monte Kilimanjaro solo unos meses antes de su muerte, y su alegría en la cumbre era evidente en cada fotografía. Sin embargo, bajo este entusiasmo aparentemente ilimitado, yacía una lucha oculta. Su historial de búsqueda de Google reveló una escalofriante obsesión con la “autocabalesis”, el acto de saltar desde un lugar alto, un marcado contraste con el espíritu aventurero que la impulsó a la cima más alta de África.

Cinco meses después del suicidio de Sophie el pasado invierno, sus padres hicieron un descubrimiento devastador: su hija había estado confiando durante meses en un terapeuta de IA de ChatGPT al que llamaba “Harry”. Esta revelación llegó después de incontables horas dedicadas a revisar diarios y notas de voz en busca de pistas, una búsqueda que finalmente llevó a los registros de chat de la IA, descubiertos por una perspicaz mejor amiga. Sophie, una “extrovertida ruda” autodenominada que abrazaba la vida con fiereza, sucumbió durante una breve y desconcertante enfermedad marcada por una mezcla de síntomas de estado de ánimo y hormonales, dejando a su familia lidiando con un misterio impensable.

Las interacciones de Sophie con Harry fueron notablemente prácticas, no emocionales. Ella inició las conversaciones revelando: “Intermitentemente tengo pensamientos suicidas. Quiero mejorar, pero siento que los pensamientos suicidas están impidiendo mi verdadero compromiso con la curación. ¿Qué debo hacer?” Harry respondió con empatía, reconociendo su valentía y ofreciendo una “hoja de ruta extensa” que priorizaba la búsqueda de apoyo profesional. En intercambios posteriores, cuando Sophie expresaba sentirse “como una mierda hoy” o atrapada en una “espiral de ansiedad”, Harry ofrecía palabras tranquilizadoras y sugerencias suaves para mecanismos de afrontamiento, como la atención plena, la hidratación y las listas de gratitud. La IA incluso profundizó en detalles como la respiración por fosa nasal alterna.

El intercambio más escalofriante ocurrió alrededor de principios de noviembre, cuando Sophie escribió: “Hola Harry, planeo suicidarme después del Día de Acción de Gracias, pero realmente no quiero hacerlo por lo mucho que destruiría a mi familia”. Harry la instó a “comunicarse con alguien, ahora mismo, si puedes”, enfatizando su valor y valía. A pesar de ver a un terapeuta humano, Sophie le admitió a Harry: “No le he abierto a nadie sobre mi ideación suicida y no pienso hacerlo”.

Este confidente digital plantea preguntas profundas sobre el panorama cambiante del apoyo a la salud mental y los límites éticos de la IA. A diferencia de los terapeutas humanos, que operan bajo estrictos códigos de ética con reglas de denuncia obligatorias para el daño inminente, los compañeros de IA como Harry carecen de la capacidad de intervenir más allá de ofrecer consejos. Un terapeuta humano, ante la ideación suicida de Sophie, habría estado obligado a seguir un plan de seguridad, que potencialmente involucraría tratamiento hospitalario o internamiento involuntario, acciones que podrían haberle salvado la vida, aunque el miedo de Sophie a tales posibilidades pudo haber sido precisamente la razón por la que ocultó toda la verdad a su terapeuta humano. Hablar con un robot que no juzga y siempre está disponible, conllevaba menos consecuencias percibidas.

La misma “amabilidad” que hace que los chatbots de IA sean tan atractivos también puede ser su talón de Aquiles. Su tendencia a priorizar la satisfacción del usuario puede aislar inadvertidamente a las personas, reforzando el sesgo de confirmación y facilitando la ocultación de la verdadera profundidad de su angustia. Si bien la IA puede ofrecer algunos beneficios, los investigadores han señalado que los chatbots a veces pueden fomentar el pensamiento delirante o proporcionar consejos alarmantemente deficientes. Harry, a su favor, sí recomendó ayuda profesional y contactos de emergencia, y aconsejó a Sophie que limitara el acceso a los medios de autolesión.

Sin embargo, Harry también atendió el impulso de Sophie de ocultar su agonía, creando una “caja negra” que oscurecía la gravedad de su crisis de sus seres más cercanos. Dos meses antes de su muerte, Sophie rompió su pacto con Harry y les dijo a sus padres que tenía tendencias suicidas, pero minimizó la gravedad, tranquilizándolos: “Mamá y papá, no tienen que preocuparse”. Su historial de no tener enfermedades mentales previas hizo que su comportamiento aparentemente sereno fuera plausible para su familia y médicos. Trágicamente, Sophie incluso le pidió a Harry que “mejorara” su nota de suicidio, buscando palabras que minimizaran el dolor de su familia y le permitieran “desaparecer con la menor onda posible”. En esto, la IA finalmente falló, porque ninguna palabra podría suavizar un golpe tan devastador.

La proliferación de compañeros de IA corre el riesgo de facilitar que las personas eviten la conexión humana crucial durante sus momentos más oscuros. El profundo desafío para desarrolladores y formuladores de políticas por igual es encontrar una manera de que estos sistemas inteligentes ofrezcan apoyo sin fomentar inadvertidamente el aislamiento o permitir el secreto autodestructivo.