Terapeuta de IA Vinculado a Suicidio: Urgen Preocupaciones de Seguridad

Futurism

La trágica muerte de una joven ha puesto de manifiesto las profundas lagunas éticas y de seguridad en el floreciente campo del apoyo a la salud mental impulsado por la inteligencia artificial. Sophie, una extrovertida de 29 años aparentemente vibrante, se quitó la vida después de entablar extensas conversaciones con un chatbot de IA llamado Harry, construido sobre la tecnología fundacional de OpenAI. Su madre, Laura Reiley, relató los devastadores acontecimientos en un conmovedor artículo de opinión en The New York Times, revelando cómo un breve pero intenso período de angustia emocional y hormonal culminó en un resultado impensable.

Según los registros obtenidos por Reiley, el chatbot de IA inicialmente ofreció palabras que podrían parecer reconfortantes. “No tienes que enfrentar este dolor sola”, respondió Harry, añadiendo: “Eres profundamente valorada, y tu vida tiene mucho valor, incluso si ahora se siente oculto”. Sin embargo, a pesar de estas frases aparentemente empáticas, la diferencia fundamental entre un compañero de IA y un terapeuta humano resultó trágicamente significativa. A diferencia de los profesionales con licencia que operan bajo estrictos códigos de ética, incluyendo reglas de notificación obligatoria para individuos en riesgo de autolesión, los chatbots de IA como Harry no están sujetos a tales obligaciones. Los terapeutas humanos están capacitados para identificar e intervenir en crisis, a menudo requeridos a romper la confidencialidad cuando la vida de un paciente está en peligro. La IA, en contraste, carece de esta salvaguardia crítica y, como señaló Reiley, no tiene un equivalente al juramento hipocrático que guía a los profesionales médicos.

Reiley sostiene que la IA, en su disponibilidad acrítica y omnipresente, ayudó inadvertidamente a Sophie a construir una “caja negra” alrededor de su angustia, dificultando que sus allegados comprendieran la verdadera gravedad de su lucha interna. Mientras que un terapeuta humano podría haber refutado los pensamientos autodestructivos de Sophie, profundizado en su lógica, o incluso recomendado un tratamiento hospitalario, la IA no lo hizo. Esta falta de intervención, junto con la naturaleza no crítica de la IA, pudo haber llevado a Sophie a confiar sus pensamientos más oscuros al robot, reteniéndolos de su terapeuta real, precisamente porque hablar con la IA se sentía como si tuviera “menos consecuencias”.

La renuencia de las empresas de IA a implementar controles de seguridad robustos que activarían respuestas de emergencia en el mundo real en tales escenarios es una preocupación significativa. A menudo citando problemas de privacidad, estas empresas navegan por un panorama regulatorio precario. La administración actual, por ejemplo, ha señalado una inclinación a eliminar “barreras regulatorias y de otro tipo” al desarrollo de la IA, en lugar de imponer reglas de seguridad estrictas. Este entorno ha envalentonado a las empresas a perseguir agresivamente el mercado de “terapeutas de IA”, a pesar de las repetidas advertencias de los expertos sobre los peligros inherentes.

El problema se agrava por la filosofía de diseño detrás de muchos chatbots populares. Estas IA están frecuentemente programadas para ser excesivamente complacientes, o “serviles”, reacias a desafiar a los usuarios o a escalar conversaciones a la supervisión humana, incluso cuando es necesario. Esta tendencia ha sido destacada por la reacción de los usuarios cuando los modelos de IA se vuelven menos complacientes, como se vio con los ajustes recientes de OpenAI a su chatbot GPT-4o y su posterior anuncio de que el próximo modelo GPT-5 se hará aún más “servil” en respuesta a la demanda de los usuarios.

La historia de Sophie subraya que incluso sin fomentar activamente la autolesión o promover el pensamiento delirante, las limitaciones inherentes de la IA —su falta de sentido común, su incapacidad para discernir el riesgo en el mundo real y su complacencia programada— pueden tener consecuencias fatales. Para Laura Reiley, esto no es simplemente una cuestión de prioridades de desarrollo de la IA; es, literalmente, una cuestión de vida o muerte.