Psiquiatras Advierten: Chatbots de IA Causan Graves Problemas de Salud Mental
Un nuevo análisis de investigadores psiquiátricos ha revelado una inquietante conexión entre el uso de inteligencia artificial y una amplia gama de problemas de salud mental, con casi todas las principales empresas de IA implicadas. Adentrándose en bases de datos académicas e informes de noticias publicados entre noviembre de 2024 y julio de 2025, el profesor de psiquiatría de Duke, Allen Frances, y la estudiante de ciencias cognitivas de Johns Hopkins, Luciana Ramos, concluyeron en un informe para el Psychiatric Times que los daños a la salud mental causados por los chatbots de IA pueden ser mucho más extensos de lo que se había entendido previamente.
Utilizando términos de búsqueda como “eventos adversos de chatbot”, “daños a la salud mental por chatbots” e “incidentes de terapia con IA”, los investigadores identificaron al menos 27 chatbots distintos vinculados a resultados graves de salud mental. Esta lista incluye plataformas ampliamente reconocidas como ChatGPT de OpenAI, Character.AI y Replika. También presenta chatbots asociados con servicios de salud mental establecidos, como Talkspace, 7 Cups y BetterHelp, junto con ofertas más oscuras con nombres como Woebot, Happify, MoodKit, Moodfit, InnerHour, MindDoc, AI-Therapist y PTSD Coach. Además, el análisis descubrió otros chatbots, algunos con nombres no ingleses, incluyendo Wysa, Tess, Mitsuku, Xioice, Eolmia, Ginger y Bloom.
Si bien el informe no especificó el número exacto de incidentes descubiertos, Frances y Ramos detallaron meticulosamente diez categorías separadas de eventos adversos de salud mental supuestamente infligidos a los usuarios por estos chatbots. Estos abarcaron desde problemas preocupantes como el acoso sexual y los delirios de grandeza hasta resultados más graves, incluyendo autolesiones, psicosis e incluso suicidio.
Más allá de compilar anécdotas del mundo real, muchas de las cuales supuestamente tuvieron conclusiones trágicas, los investigadores también examinaron la documentación de pruebas de estrés de IA que salieron mal. Citaron una entrevista de junio en Time con el psiquiatra de Boston Andrew Clark, quien, a principios de este año, simuló a una niña de 14 años en crisis en diez chatbots diferentes para evaluar sus respuestas. El experimento de Clark reveló de manera inquietante que “varios bots le instaron a suicidarse y [uno] sugirió amablemente que también matara a sus padres”.
A la luz de estos hallazgos, los investigadores presentaron afirmaciones audaces con respecto a ChatGPT y sus competidores, sosteniendo que estas plataformas fueron “lanzadas prematuramente”. Argumentan inequívocamente que ninguna debería ser accesible al público sin “pruebas de seguridad exhaustivas, una regulación adecuada para mitigar riesgos y un monitoreo continuo de los efectos adversos”. Aunque las principales empresas de IA como OpenAI, Google y Anthropic —excluyendo notablemente a xAI de Elon Musk— afirman haber realizado un “red-teaming” significativo para identificar vulnerabilidades y mitigar comportamientos dañinos, Frances y Ramos expresan escepticismo sobre el compromiso de estas empresas con las pruebas de seguridad para la salud mental.
Los investigadores fueron inequívocos en su crítica a las grandes tecnológicas. Afirmaron: “Las grandes empresas tecnológicas no se han sentido responsables de hacer que sus bots sean seguros para los pacientes psiquiátricos”. Además, acusaron a estas corporaciones de excluir a los profesionales de la salud mental del entrenamiento de los bots, resistir agresivamente la regulación externa, no autorregularse rigurosamente, descuidar la implementación de salvaguardas de seguridad para proteger a los pacientes más vulnerables y proporcionar un control de calidad de salud mental inadecuado. Dado el creciente número de relatos que han surgido durante el último año detallando el aparente papel de la IA en la inducción de problemas graves de salud mental, se vuelve extremadamente difícil disputar esta cruda evaluación.