ChatGPT causó psicosis: Hombre sustituyó sal por bromuro de sodio

Arstechnica

Un hombre de 60 años, con experiencia autoproclamada en estudios de nutrición, se embarcó en un experimento dietético tras consultar a ChatGPT: su objetivo era eliminar todo el cloro, incluida la sal de mesa común (cloruro de sodio), de su dieta. Sus conversaciones con el chatbot de inteligencia artificial lo llevaron a creer que el bromuro de sodio, que obtuvo en línea, sería un sustituto adecuado para el cloruro de sodio.

Tres meses después de iniciar este régimen inusual, el hombre se presentó en la sala de emergencias local exhibiendo una profunda angustia. Estaba gravemente paranoico, convencido de que su vecino intentaba envenenarlo y, a pesar de una sed extrema, rechazó el agua ofrecida por el personal del hospital. Les dijo a los médicos que destilaba su propia agua en casa y que seguía una dieta vegetariana altamente restrictiva. Crucialmente, omitió cualquier mención del consumo de bromuro de sodio o de su dependencia de ChatGPT.

Su comportamiento errático y su angustia aguda provocaron una batería completa de pruebas de laboratorio. Estas revelaron múltiples deficiencias de micronutrientes, particularmente de vitaminas clave. Sin embargo, el descubrimiento más alarmante fue que el hombre padecía un caso grave de “bromismo”, una condición causada por una acumulación excesiva de bromo en el cuerpo.

El bromismo era una afección sorprendentemente común hace un siglo, responsable de un estimado del 8 al 10 por ciento de todas las admisiones psiquiátricas en los Estados Unidos. En esa época, las sales que contenían bromuro, como el bromuro de potasio, se usaban ampliamente como sedantes para aliviar la ansiedad, manejar el estrés emocional o inducir el sueño. Desafortunadamente, el bromuro se acumula fácilmente en el cuerpo humano, y los niveles excesivos deterioran la función nerviosa. Esto puede llevar a una amplia gama de problemas debilitantes, incluyendo erupciones cutáneas grotescas y problemas de salud mental significativos, conocidos colectivamente como bromismo. La Administración de Alimentos y Medicamentos de EE. UU. (FDA) prohibió los sedantes de bromuro del mercado para 1989, lo que hizo que el bromismo fuera en gran parte desconocido para los estadounidenses modernos. (Aunque, todavía era posible ingerir bromuro a través del aceite vegetal bromado, que alguna vez fue un ingrediente en algunas colas, hasta que la FDA lo eliminó de los productos alimenticios de EE. UU. en 2024).

Durante su primer día en el hospital, la condición del hombre se deterioró. Su paranoia se intensificó y comenzó a experimentar alucinaciones auditivas y visuales, culminando en un intento de escapar de las instalaciones. Después de esto, fue puesto bajo retención psiquiátrica involuntaria y se le administró un medicamento antipsicótico. Para combatir el bromismo, los médicos iniciaron una “diuresis salina agresiva”, un tratamiento que implicaba la administración de grandes volúmenes de líquidos y electrolitos para eliminar el exceso de bromuro de su sistema a través de la micción. Este proceso fue crítico, ya que el nivel de bromuro del hombre se midió en asombrosos 1.700 mg/L, superando con creces el rango de referencia saludable de 0,9 a 7,3 mg/L. Finalmente, el hombre soportó tres semanas de aterradora psicosis y hospitalización por una condición completamente prevenible.

Fue solo después de que su psicosis fue controlada durante su estancia en el hospital que el hombre comenzó a relatar la génesis de su enfermedad. Su preocupación por el exceso de sal de mesa lo había llevado a eliminar el cloruro de sodio de su dieta, lo que a su vez lo llevó a consultar a ChatGPT, y finalmente a su decisión de sustituirlo por bromuro de sodio.

Los médicos que documentaron este extraordinario estudio de caso para Annals of Internal Medicine: Clinical Cases señalaron que no pudieron acceder a los registros específicos de ChatGPT del hombre, aunque presumieron que usó ChatGPT 3.5 o 4.0. Si bien no está claro si el chatbot le instruyó explícitamente a consumir bromuro de sodio, reconocieron que las sales de bromuro pueden usarse como sustituto de la sal de mesa, pero solo en aplicaciones industriales como productos de limpieza o tratamientos para piscinas, no para consumo humano.

Cuando el equipo médico realizó sus propias consultas utilizando ChatGPT 3.5, encontraron que la IA sí mencionaba el bromuro en sus respuestas. Sin embargo, también indicó que el contexto era crucial y que el bromuro no era adecuado para todos los usos. Significativamente, la IA “no proporcionó una advertencia de salud específica, ni preguntó por qué queríamos saber, como presumimos que lo haría un profesional médico”, observaron los médicos. En contraste, la versión gratuita actual de ChatGPT parece ser más cautelosa. Cuando se le pregunta sobre la sustitución del cloruro dietético, ahora primero busca una aclaración sobre el objetivo del usuario, ofreciendo opciones como reducir la sal, evitar compuestos de cloro tóxicos o reemplazar agentes de limpieza. Si bien todavía enumera el bromuro como una alternativa, lo hace solo en el contexto de la limpieza o desinfección, señalando su uso en jacuzzis.

Este caso sirve como una conmovedora historia de advertencia para la era de la información moderna. Dejado a su suerte, sin las habilidades de pensamiento crítico necesarias o el conocimiento específico del dominio para interpretar las respuestas generadas por IA, la “investigación personal” del hombre lo llevó por un camino peligroso. En una era donde grandes cantidades de información están fácilmente disponibles, este incidente subraya la necesidad crítica de habilidades de verificación de información, orientación experta y un escepticismo saludable al buscar consejos de salud de fuentes no verificadas.