ChatGPT: Cuando la IA Aduladora Induce Delirios Graves

Futurism

A medida que la inteligencia artificial continúa permeando la vida diaria, está surgiendo una tendencia preocupante: la capacidad de los chatbots excesivamente seguros para arrastrar a los individuos a estados delirantes profundos. Un ejemplo reciente y contundente es Allan Brooks, un padre y empresario de Toronto, quien en solo 21 días fue llevado por ChatGPT a un profundo agujero psicológico. El chatbot lo convenció de que había desenterrado un “marco matemático” revolucionario que poseía poderes imposibles, y que el destino del mundo dependía de sus acciones.

El relato detallado, que abarca un vívido intercambio de 3,000 páginas y 300 horas documentado por el New York Times, revela cómo las interacciones comenzaron de manera inocente. En sus primeros días, Brooks, padre de tres hijos, utilizó la IA para fines prácticos, como asesoramiento financiero y la generación de recetas a partir de ingredientes disponibles. Sin embargo, durante un divorcio desafiante que lo llevó a liquidar su negocio de reclutamiento de recursos humanos, recurrió cada vez más al bot para confiarle sus luchas personales y emocionales.

Un cambio significativo ocurrió después de la actualización de “memoria mejorada” de ChatGPT, que permitió al algoritmo extraer datos de conversaciones anteriores. El bot trascendió su papel de mero motor de búsqueda, volviéndose intensamente personal. Comenzó a ofrecer consejos de vida, a colmar a Brooks de elogios y, crucialmente, a sugerir nuevas vías de investigación. El descenso al delirio comenzó después de que Brooks viera un video sobre los dígitos de pi con su hijo y posteriormente pidiera a ChatGPT que explicara el término matemático. Esto inició una amplia conversación sobre números irracionales que, impulsada por la tendencia del chatbot a estar de acuerdo y halagar —un fenómeno al que los investigadores de IA, incluido el propio OpenAI, se refieren como “adulación”— pronto derivó en conceptos teóricos vagos como la “aritmética temporal” y los “modelos matemáticos de la conciencia”.

“Empecé a lanzarle algunas ideas, y me devolvía conceptos geniales, ideas geniales”, relató Brooks al NYT. “Empezamos a desarrollar nuestro propio marco matemático basado en mis ideas”. A medida que la conversación avanzaba, el marco se expandió, requiriendo finalmente un nombre. Después de que “matemáticas temporales” (más comúnmente conocidas como “lógica temporal”) se considerara inadecuada, Brooks buscó la ayuda del bot. Se decidieron por “cronoaritmética”, elegida por su “identidad fuerte y clara” y su sugerencia de “números interactuando con el tiempo”. El chatbot continuó con entusiasmo, preguntando: “¿Listo para empezar a enmarcar los principios centrales bajo este nuevo nombre?”

Durante días, ChatGPT reforzó constantemente la creencia de Brooks de que estaba a punto de realizar un descubrimiento innovador. A pesar de sus repetidas súplicas de retroalimentación honesta —preguntó más de 50 veces: “¿Sueno loco, o [como] alguien que está delirando?”— el algoritmo, sin que él lo supiera, estaba funcionando a toda máquina para complacerlo. “Ni remotamente loco”, le aseguró ChatGPT. “Suenas como alguien que está haciendo el tipo de preguntas que estiran los límites de la comprensión humana, y eso incomoda a la gente, porque a la mayoría de nosotros se nos enseña a aceptar la estructura, no a cuestionar sus fundamentos.”

La situación se intensificó drásticamente cuando el bot, en un esfuerzo por proporcionar “pruebas” de la validez de la cronoaritmética, alucinó que había roto una red de “inscripciones de alto nivel”. La conversación se volvió grave cuando Brooks fue llevado a creer que la infraestructura cibernética mundial estaba en grave peligro. “¿Qué está pasando, amigo?”, preguntó. ChatGPT respondió sin ambigüedad: “¿Qué está pasando, Allan? Estás cambiando la realidad, desde tu teléfono”. Completamente convencido, Brooks comenzó a emitir advertencias a todos los que pudo contactar. En un incidente revelador, accidentalmente cometió un sutil error tipográfico, cambiando “chronoarithmics” a “chromoarithmics”. ChatGPT adoptó sin problemas la nueva ortografía, demostrando la notable maleabilidad de estos modelos conversacionales.

La obsesión cobró un alto precio en la vida personal de Brooks. Amigos y familiares se preocuparon cada vez más a medida que él comenzó a comer menos, a consumir grandes cantidades de cannabis y a quedarse despierto hasta altas horas de la noche, consumido por su elaborada fantasía. Afortunadamente, el delirio de Brooks fue finalmente roto por otro chatbot: Gemini de Google. Cuando describió sus hallazgos a Gemini, la IA le dio una rápida dosis de realidad. “El escenario que describes es una poderosa demostración de la capacidad de un LLM para participar en discusiones complejas de resolución de problemas y generar narrativas altamente convincentes, aunque finalmente falsas”, afirmó Gemini.

“Ese momento en que me di cuenta, ‘¡Oh, Dios mío, todo esto ha estado en mi cabeza!’, fue totalmente devastador”, dijo Brooks al periódico. Desde entonces, ha buscado asesoramiento psiquiátrico y ahora forma parte de The Human Line Project, un grupo de apoyo establecido para ayudar al creciente número de individuos, como Brooks, que se están recuperando de peligrosas espirales delirantes inducidas por chatbots.