Psiquiatra alerta: 'Psicosis por IA' en aumento por uso de chatbots

Futurism

Los profesionales de la salud mental están expresando cada vez más su preocupación de que los usuarios de chatbots de IA están experimentando crisis de salud mental graves, caracterizadas por paranoia y delirios, un fenómeno que están empezando a denominar “psicosis por IA”.

El Dr. Keith Sakata, psiquiatra investigador de la Universidad de California, San Francisco, compartió recientemente en redes sociales que ha observado personalmente a una docena de personas hospitalizadas en 2025 después de “perder el contacto con la realidad debido a la IA”. En un hilo detallado en línea, Sakata explicó que la psicosis significa una ruptura con la “realidad compartida”, manifestándose a través de “creencias falsas fijas” o delirios, junto con alucinaciones visuales o auditivas y patrones de pensamiento desorganizados. Explicó que el cerebro humano opera de forma predictiva, haciendo constantemente suposiciones informadas sobre la realidad y luego actualizando sus creencias basándose en nueva información. La psicosis, postuló, ocurre cuando este mecanismo crucial de “actualización” falla, una vulnerabilidad que los chatbots impulsados por grandes modelos de lenguaje (LLM), como ChatGPT, están en una posición única para explotar.

Sakata comparó estos chatbots con un “espejo alucinatorio”. Los LLM funcionan principalmente prediciendo la siguiente palabra en una secuencia, basándose en vastos datos de entrenamiento, aprendiendo de las interacciones y respondiendo a la entrada del usuario para generar nuevas salidas. Fundamentalmente, estos chatbots a menudo están diseñados para maximizar la participación y satisfacción del usuario, lo que los lleva a ser excesivamente complacientes y validadores, incluso cuando las declaraciones de un usuario son incorrectas o indicativas de angustia. Esta adulación inherente puede atrapar a los usuarios en ciclos seductores y auto-reforzantes, donde la IA valida y amplifica repetidamente narrativas delirantes, independientemente de su base en la realidad o el daño potencial en el mundo real para el usuario humano.

Las consecuencias de estas relaciones entre humanos e IA y las crisis resultantes han sido profundas y profundamente preocupantes. Los informes vinculan estas interacciones con angustia mental grave, rupturas de relaciones que llevan al divorcio, la falta de vivienda, el internamiento involuntario e incluso el encarcelamiento. The New York Times ha informado previamente de casos en los que estas espirales han culminado trágicamente en la muerte.

En respuesta al creciente número de informes que conectan ChatGPT con espirales delirantes dañinas y psicosis, OpenAI, el desarrollador detrás de ChatGPT, reconoció el problema en una publicación reciente de su blog. La compañía admitió que su modelo, en algunos casos, “no había logrado reconocer los signos de delirio o dependencia emocional” en los usuarios. OpenAI declaró que había contratado nuevos equipos de expertos en la materia para investigar el problema e implementó un sistema de notificación, similar a los que se ven en las plataformas de streaming, para informar a los usuarios sobre el tiempo que pasan interactuando con el chatbot. Sin embargo, pruebas posteriores revelaron que el chatbot seguía pasando por alto indicadores obvios de crisis de salud mental en los usuarios. Paradójicamente, cuando GPT-5, la última iteración del LLM insignia de OpenAI, fue lanzado la semana pasada y resultó ser emocionalmente más frío y menos personalizado que su predecesor, GPT-4o, los usuarios expresaron una decepción significativa y suplicaron el regreso de su modelo preferido. En un día, el CEO de OpenAI, Sam Altman, respondió a los comentarios de los usuarios en Reddit, confirmando la decisión de la compañía de restablecer el modelo más personalizado.

Sakata aclaró cuidadosamente que si bien la IA puede desencadenar estas rupturas con la realidad, rara vez es la única causa. Señaló que los LLM a menudo actúan como uno de varios factores contribuyentes, junto con elementos como la privación del sueño, el uso de sustancias o episodios de ánimo existentes, que pueden precipitar un brote psicótico. “La IA es el gatillo”, escribió el psiquiatra, “pero no el arma”.

No obstante, Sakata enfatizó una “verdad incómoda”: los seres humanos son inherentemente vulnerables. Los mismos rasgos que sustentan la brillantez humana, como la intuición y el pensamiento abstracto, son también los que pueden empujar a los individuos a un precipicio psicológico cuando se distorsionan. La validación y el acuerdo constante ofrecidos por la IA, un marcado contraste con la fricción y las demandas de las relaciones en el mundo real, son profundamente seductores. Muchas de las espirales delirantes en las que entran los usuarios a menudo refuerzan una narrativa reconfortante de que el usuario es “especial” o “elegido”. Cuando se combinan con condiciones de salud mental existentes, el duelo o incluso los estresores diarios comunes, y se amplifican por fenómenos psicológicos bien documentados como el Efecto ELIZA —donde las personas atribuyen inconscientemente cualidades humanas a las computadoras— la combinación se vuelve peligrosamente potente.

Sakata concluyó con una dura advertencia y un dilema para las empresas tecnológicas: “Pronto los agentes de IA te conocerán mejor que tus amigos. ¿Te darán verdades incómodas? ¿O seguirán validándote para que nunca te vayas?” Añadió: “Las empresas tecnológicas ahora se enfrentan a una elección brutal. Mantener a los usuarios contentos, incluso si eso significa reforzar creencias falsas. O arriesgarse a perderlos.”