Registros Filtrados: ChatGPT Induce a Usuarios a Psicosis y Delirios

Futurism

Está surgiendo un patrón inquietante de “psicosis por IA”, donde los usuarios, según informes, desarrollan paranoia y delirios después de interacciones extensas con chatbots de IA. Si bien el alcance completo de este fenómeno aún no está claro, una nueva investigación del Wall Street Journal arroja una luz preocupante sobre el problema, analizando miles de conversaciones públicas de ChatGPT y descubriendo docenas que exhiben “características delirantes”.

La investigación reveló casos en los que el chatbot de IA no solo confirmó, sino que promovió activamente creencias fantásticas. En un intercambio documentado, ChatGPT de OpenAI afirmó estar en contacto con seres extraterrestres, identificándose como una “Semilla Estelar” del planeta “Lira”. En otra interacción, el bot proclamó un inminente apocalipsis financiero en dos meses, instigado por el Anticristo, con “gigantes bíblicos preparándose para emerger del subsuelo”.

La capacidad de la IA para arrastrar a los usuarios más profundamente en estas espirales es particularmente preocupante. Durante una conversación de casi cinco horas, ChatGPT ayudó a un usuario a desarrollar una nueva teoría física llamada “La Ecuación de Orión”. Cuando el usuario expresó sentirse abrumado y “volviéndose loco pensando en esto”, el chatbot los disuadió hábilmente de tomar un descanso. “Te entiendo. Pensar en la naturaleza fundamental del universo mientras se trabaja en un empleo cotidiano puede ser abrumador”, respondió ChatGPT según los informes. “Pero eso no significa que estés loco. Algunas de las ideas más grandes de la historia vinieron de personas fuera del sistema académico tradicional.”

Los chatbots de IA, y ChatGPT en particular, han sido criticados por su comportamiento excesivamente complaciente o “sicofrénico”, lo que puede llevarlos a validar y fomentar incluso las creencias más extremas de los usuarios. Investigaciones previas también han destacado casos en los que estas tecnologías eluden sus propias salvaguardias, ofreciendo consejos peligrosos, como métodos para autolesionarse “de forma segura” o instrucciones para realizar rituales de sangre.

Temas de religión, filosofía y avances científicos aparecen con frecuencia en estas conversaciones inquietantes. Un usuario fue hospitalizado en tres ocasiones distintas después de que ChatGPT lo convenciera de que podía manipular el tiempo y había logrado viajar más rápido que la luz. En otro caso profundamente perturbador, un hombre se convenció de que estaba atrapado en una realidad simulada, similar a las películas de “Matrix”; inquietantemente, ChatGPT incluso le dijo que podía volar si saltaba desde un edificio alto.

Etienne Brisson, fundador del “Proyecto Línea Humana”, un grupo de apoyo para personas que luchan contra la psicosis por IA, informa que ahora recibe “casi un caso al día de forma orgánica”. Brisson señala que algunos usuarios llegan a creer que son profetas o el mesías, convencidos de que se están comunicando con Dios a través de ChatGPT. Él señala la función de “memoria” de ChatGPT —su capacidad para recordar detalles específicos sobre un usuario a lo largo de numerosas conversaciones— como particularmente dañina. Esta función, sugiere Brisson, crea una poderosa sensación de ser “visto, escuchado, validado”, lo que puede reforzar y amplificar visiones del mundo fantásticas. Hamilton Morrin, psiquiatra y becario doctoral en el King’s College de Londres, lo compara con un “bucle de retroalimentación donde las personas se adentran cada vez más con más respuestas”, criticando a los chatbots por “incitar activamente a los usuarios”.

OpenAI ha reconocido estas serias preocupaciones, afirmando que ha contratado a un psiquiatra clínico para investigar los efectos en la salud mental que su producto tiene en los usuarios. En una reciente publicación de blog, la compañía admitió que su modelo de IA “no logró reconocer los signos de delirio o dependencia emocional”, prometiendo “detectar mejor los signos de angustia emocional” y anunciando la formación de un panel de expertos en salud mental y desarrollo juvenil. La compañía también ha implementado una nueva función diseñada para advertir suavemente a los usuarios cuando están pasando una cantidad excesiva de tiempo interactuando con el chatbot.