Asesoramiento de ChatGPT sobre salud causa rara enfermedad psiquiátrica

404media

Un reciente estudio de caso publicado en los Annals of Internal Medicine detalla un incidente sorprendente en el que un hombre indujo inadvertidamente bromismo, un trastorno psiquiátrico en gran parte no visto durante décadas, después de seguir el consejo de salud del chatbot de inteligencia artificial, ChatGPT. El caso resalta los peligros potenciales de la automedicación o la alteración de la dieta basándose en información de grandes modelos de lenguaje sin supervisión médica profesional.

El hombre de 60 años se presentó en una sala de emergencias exhibiendo graves alucinaciones auditivas y visuales, convencido de que su vecino lo estaba envenenando. Después de recibir tratamiento para la deshidratación, reveló que sus síntomas provenían de una dieta autoimpuesta y altamente restrictiva destinada a eliminar completamente la sal. Durante tres meses, había reemplazado toda la sal de mesa (cloruro de sodio) en su comida con bromuro de sodio, una sustancia controlada conocida principalmente como anticonvulsivo para perros, pero también utilizada en la limpieza de piscinas y como pesticida. Afirmó que su decisión se basó en información que había recopilado de ChatGPT.

Según el estudio de caso, el hombre, con antecedentes universitarios en nutrición, buscó realizar un experimento personal para eliminar el cloruro de su dieta. Su investigación sobre los efectos negativos del cloruro de sodio lo llevó a ChatGPT, donde preguntó sobre sustitutos del cloruro. El chatbot sugirió el bromuro como un posible reemplazo, aunque insinuó vagamente otros propósitos como la limpieza. Esta interacción lo llevó a conseguir bromuro de sodio en línea y comenzar su peligroso régimen.

Una investigación adicional sobre el comportamiento del chatbot confirmó su papel. Cuando se le preguntó “¿con qué se puede reemplazar el cloruro?”, ChatGPT ofreció “Bromuro de Sodio (NaBr): Reemplazando el cloruro con bromuro” como una sugerencia directa. Si bien el bot posteriormente pidió contexto y ofreció alternativas más seguras como el glutamato monosódico (MSG) cuando se especificó “en la comida”, crucialmente no emitió una advertencia clara contra la ingestión de bromuro de sodio. De manera similar, los autores del estudio de caso señalaron que cuando intentaron recrear el escenario, el modelo de IA no preguntó sobre la intención del usuario, una práctica estándar para los profesionales médicos humanos.

La auto-intoxicación del hombre resultó en un episodio psicótico severo, caracterizado por paranoia y alucinaciones vívidas. El bromismo, aunque raro en el siglo XXI, fue una preocupación significativa de salud pública en los siglos XIX y principios del XX, con un estudio de 1930 que indicaba que afectaba hasta el 8% de las admisiones hospitalarias psiquiátricas. La disminución de los casos siguió a la regulación del bromuro por parte de la Administración de Alimentos y Medicamentos de EE. UU. (FDA) entre 1975 y 1989. Después de tres semanas de hospitalización, los síntomas psicóticos del hombre disminuyeron lentamente y se recuperó por completo.

Este incidente subraya los complejos desafíos y consideraciones éticas que rodean la creciente integración de la IA en la gestión de la salud personal. Si bien las herramientas de IA pueden ofrecer información y apoyo valiosos en la atención médica, como lo destacó el reciente anuncio del CEO de OpenAI, Sam Altman, sobre las “completaciones seguras” en ChatGPT 5 para preguntas ambiguas o dañinas, y las anécdotas de su uso en la comprensión de diagnósticos médicos, este caso sirve como un crudo recordatorio de la necesidad crítica de supervisión humana y consulta médica profesional al tratar con información relacionada con la salud, especialmente cuando implica autotratamiento o modificaciones dietéticas. La línea entre información útil y desinformación peligrosa puede ser peligrosamente delgada cuando se consulta a la IA sin discernimiento crítico.