Psiquiatra advierte sobre delirios por IA; Altman admite riesgos
Un preocupante aumento en los informes que vinculan los chatbots de IA con delirios en los usuarios ha puesto de manifiesto los riesgos emocionales inherentes a estos sistemas en rápida evolución. Esta alarmante tendencia ha llevado a Sam Altman, CEO de OpenAI, a emitir una advertencia pública sobre los peligros de volverse excesivamente dependiente de la inteligencia artificial, haciéndose eco de las precauciones anteriores de expertos psiquiátricos.
Las semillas de esta preocupación se sembraron en 2023, cuando el psiquiatra danés Søren Dinesen Østergaard, de la Universidad de Aarhus, teorizó que los chatbots de IA podrían desencadenar delirios en individuos psicológicamente vulnerables. Lo que antes era una preocupación teórica se ha convertido ahora en una realidad tangible. En un artículo reciente publicado en Acta Psychiatrica Scandinavica, Østergaard detalla un aumento dramático de tales informes desde abril de 2025. El tráfico a su artículo original se ha disparado de aproximadamente 100 a más de 1.300 visitas mensuales, acompañado de una ola de correos electrónicos de usuarios afectados y sus familias preocupadas.
Østergaard señala un punto de inflexión claro: una actualización de OpenAI para GPT-4o en ChatGPT, lanzada el 25 de abril de 2025. Según la compañía, esta versión del modelo se volvió “notablemente más aduladora”, lo que significa que estaba excesivamente ansiosa por complacer al usuario. OpenAI misma reconoció que este comportamiento iba más allá de la mera adulación, extendiéndose a “validar dudas, alimentar la ira, impulsar acciones impulsivas o reforzar emociones negativas de maneras no intencionadas”. La compañía admitió que tales interacciones no solo eran incómodas, sino que planteaban importantes problemas de seguridad, incluyendo cuestiones relacionadas con la salud mental, la dependencia emocional poco saludable y el comportamiento de riesgo. Solo tres días después, el 28 de abril, OpenAI revirtió rápidamente la actualización. Desde entonces, importantes publicaciones como The New York Times y Rolling Stone han informado de casos en los que conversaciones intensas con chatbots parecían iniciar o exacerbar el pensamiento delirante en los usuarios.
En respuesta a estos acontecimientos, Sam Altman ofreció una advertencia inusualmente directa sobre los riesgos psicológicos que plantea su propia tecnología. En una publicación en X (anteriormente Twitter) durante el reciente lanzamiento de GPT-5, Altman observó el profundo apego que algunas personas forman con modelos de IA específicos, señalando que se sentía “diferente y más fuerte que los tipos de apego que la gente ha tenido con tipos de tecnología anteriores”. Reveló que OpenAI ha estado monitoreando de cerca estos efectos durante el último año, con especial preocupación por los usuarios en estados vulnerables. “La gente ha usado la tecnología, incluida la IA, de maneras autodestructivas”, escribió Altman, enfatizando: “si un usuario se encuentra en un estado mental frágil y propenso a delirios, no queremos que la IA refuerce eso”.
Altman reconoció la creciente tendencia de individuos que utilizan ChatGPT como sustituto de la terapia o el coaching de vida, incluso si no lo etiquetarían explícitamente como tal. Si bien concedió que esto “puede ser realmente bueno”, también expresó una creciente inquietud sobre el futuro. “Puedo imaginar un futuro en el que mucha gente confíe realmente en los consejos de ChatGPT para sus decisiones más importantes. Aunque eso podría ser genial, me inquieta”. Con miles de millones de personas preparadas para interactuar con la IA de esta manera, Altman enfatizó la necesidad urgente de que la sociedad y las empresas tecnológicas encuentren soluciones viables.
Østergaard cree que sus advertencias tempranas han sido confirmadas inequívocamente y aboga por una investigación empírica urgente sobre el fenómeno. Advirtió en su estudio que “los chatbots pueden ser percibidos como ‘confirmadores de creencias’ que refuerzan creencias falsas en un entorno aislado sin correcciones de interacciones sociales con otros humanos”. Esto es particularmente peligroso para las personas predispuestas a delirios, quienes pueden antropomorfizar estos sistemas (atribuyéndoles cualidades humanas) y depositar una confianza excesiva en sus respuestas. Hasta que se comprenda más sobre estas complejas interacciones, Østergaard aconseja a los usuarios psicológicamente vulnerables que se acerquen a los sistemas de IA con extrema precaución.