Consejos de salud de IA provocan rara enfermedad en un hombre

Theguardian

Un caso reciente detallado en los Annals of Internal Medicine ha lanzado una dura advertencia sobre el creciente papel de la inteligencia artificial en la salud personal, después de que un hombre de 60 años desarrollara una condición rara y grave tras una consulta equivocada con una versión anterior de ChatGPT. El incidente subraya las crecientes preocupaciones entre los profesionales médicos sobre el potencial de los chatbots de IA para difundir consejos de salud inexactos o peligrosos.

Según el informe de investigadores de la Universidad de Washington en Seattle, el paciente presentó bromismo, también conocido como toxicidad por bromuro. Esta condición, que alguna vez fue un problema de salud pública significativo a principios del siglo XX, se vinculaba históricamente a casi una de cada diez admisiones psiquiátricas. El hombre dijo a los médicos que, después de leer sobre los efectos adversos del cloruro de sodio, o sal de mesa común, recurrió a ChatGPT buscando formas de eliminar el cloruro de su dieta. Sus acciones posteriores incluyeron tomar bromuro de sodio durante tres meses, a pesar de haber leído que “el cloruro puede intercambiarse con bromuro, aunque probablemente para otros fines, como la limpieza”. El bromuro de sodio se usaba históricamente como sedante.

Los autores del artículo de los Annals of Internal Medicine destacaron este caso como un potente ejemplo de cómo el uso de la IA “puede contribuir potencialmente al desarrollo de resultados adversos para la salud prevenibles”. Si bien no pudieron acceder al registro de conversación específico del hombre con el chatbot, realizaron su propia prueba. Al preguntar a ChatGPT con qué se podía reemplazar el cloruro, la respuesta de la IA incluyó el bromuro, crucialmente sin proporcionar ninguna advertencia de salud ni preguntar sobre la intención del usuario, una omisión crítica que un profesional médico humano invariablemente abordaría.

Los investigadores enfatizaron que las aplicaciones de IA como ChatGPT corren el riesgo de generar “inexactitudes científicas, carecen de la capacidad de discutir críticamente los resultados y, en última instancia, alimentan la propagación de información errónea”. También señalaron la improbabilidad de que un profesional médico calificado sugiriera el bromuro de sodio como sustituto de la sal de mesa, ilustrando aún más la desconexión entre los consejos generados por IA y la práctica médica establecida.

Los síntomas del paciente eran graves y alarmantes. Se presentó en un hospital, exhibiendo paranoia, creyendo que su vecino podría estar envenenándolo, y mostrando un miedo irracional al agua que se le ofrecía a pesar de una sed intensa. Dentro de las 24 horas de su admisión, intentó escapar del hospital y posteriormente fue internado y tratado por psicosis. Una vez estabilizado, informó síntomas adicionales consistentes con bromismo, incluyendo acné facial, sed excesiva e insomnio.

Este incidente ocurre mientras OpenAI, el desarrollador de ChatGPT, ha anunciado recientemente importantes actualizaciones del chatbot, ahora impulsado por el modelo GPT-5. La compañía afirma que una de las fortalezas centrales de GPT-5 radica en las consultas relacionadas con la salud, prometiendo una precisión mejorada y un enfoque proactivo para “señalar posibles preocupaciones” como enfermedades físicas o mentales graves. Sin embargo, OpenAI ha enfatizado consistentemente que su chatbot no pretende ser un sustituto del consejo médico profesional.

El caso sirve como un recordatorio crítico tanto para pacientes como para proveedores de atención médica. Si bien la IA es prometedora como puente entre el conocimiento científico y el público, también conlleva el riesgo inherente de promover información descontextualizada o peligrosamente engañosa. Los profesionales médicos, concluye el artículo, necesitarán considerar cada vez más la influencia de la IA al evaluar cómo los pacientes obtienen su información de salud.