Estudio: Detección de Cáncer Empeora en Médicos Tras Confiar en IA

Theverge

La integración de la inteligencia artificial en campos profesionales se ha enmarcado durante mucho tiempo como un camino hacia la “mejora de habilidades” o la “recualificación”, es decir, la mejora de las capacidades humanas o la formación para nuevos roles. Sin embargo, un estudio reciente presenta una contra-narrativa preocupante: el potencial de la “pérdida de habilidades”, donde la dependencia de la IA puede en realidad disminuir la competencia humana. Una nueva investigación publicada esta semana revela que los médicos que emplearon rutinariamente la IA para la detección de cáncer durante las colonoscopias experimentaron un declive significativo en su capacidad para identificar crecimientos cancerosos cuando la asistencia de la IA no estaba disponible.

El estudio, destacado en la revista The Lancet Gastroenterology & Hepatology, fue realizado por un equipo internacional de profesionales médicos e investigadores de países como Polonia, Noruega, Suecia, el Reino Unido y Japón. Su objetivo principal era investigar cómo la exposición continua a la IA podría influir en el rendimiento de los médicos. Para lograr esto, los investigadores evaluaron cómo les fue a los endoscopistas —especialistas médicos que realizan colonoscopias— cuando la IA no estaba en uso, después de que se hubieran acostumbrado al apoyo frecuente de la IA.

Los hallazgos fueron preocupantes. Los médicos que usaban regularmente la IA para asistir en los procedimientos de colonoscopia demostraron una tasa de detección aproximadamente seis puntos porcentuales más baja cuando se les requirió realizar la tarea de forma independiente, sin la guía de la IA. El estudio siguió a médicos en cuatro centros de endoscopia en Polonia, que formaban parte de un programa de prueba que exploraba la aplicación de la IA en la colonoscopia para la prevención del cáncer.

Esta investigación plantea preguntas críticas sobre el uso juicioso de la IA en la atención médica, particularmente para discernir cuándo realmente ayuda y cuándo podría causar daño de forma inadvertida. Llega en medio de preocupaciones más amplias sobre la fiabilidad de los modelos de IA médica. Recientemente, por ejemplo, se informó que un modelo de IA de atención médica de una importante empresa tecnológica había podido “alucinar” una parte del cuerpo, lo que alimenta aún más las discusiones entre los profesionales médicos sobre la futura trayectoria de la integración de la IA en la industria. A medida que la IA continúa permeando campos sensibles como la medicina, asegurar que estas herramientas aumenten en lugar de erosionar la experiencia humana será primordial.