Deepfakes de IA: Dr. Mosley, víctima de estafas de salud que minan la confianza

Ai2People

El panorama digital está cada vez más plagado de engaños, y ha surgido una forma particularmente insidiosa que aprovecha la imagen de confianza del difunto Dr. Michael Mosley. Los estafadores están desplegando videos deepfake generados por IA que presentan a Mosley, una figura familiar y respetada en la radiodifusión de salud, para comercializar agresivamente suplementos no probados como la ashwagandha y las gominolas de remolacha. Estos clips fabricados, que circulan ampliamente en plataformas de redes sociales como Instagram y TikTok, muestran a Mosley aparentemente respaldando afirmaciones de salud extravagantes relacionadas con la menopausia, la inflamación y otras tendencias de bienestar de moda, ninguna de las cuales él apoyó genuinamente.

La sofisticación de estas creaciones de IA es alarmante. Reúnen meticulosamente fragmentos de los podcasts y apariciones públicas pasadas de Mosley, imitando con precisión su tono distintivo, expresiones faciales e incluso sutiles vacilaciones. El resultado es inquietantemente convincente, a menudo llevando a los espectadores a detenerse y preguntarse si realmente están viendo al querido experto en salud, solo para ser sacudidos por la comprensión de que falleció el año pasado. Investigadores de instituciones como el Instituto Turing han advertido que los rápidos avances en la IA están haciendo que sea cada vez más difícil discernir el contenido auténtico del material fabricado basándose únicamente en señales visuales, lo que señala un profundo desafío para la alfabetización digital.

Más allá del shock inicial, las implicaciones de estos videos deepfake son extremadamente serias. Venden afirmaciones no verificadas y potencialmente peligrosas —desde gominolas de remolacha que supuestamente curan aneurismas hasta la moringa que equilibra las hormonas— que están divorciadas de la realidad médica. Los dietistas han expresado su preocupación de que este contenido sensacionalista y engañoso socava gravemente la comprensión del público sobre la nutrición legítima y los principios de salud. Los suplementos, enfatizan, no son atajos para el bienestar, y estas exageraciones siembran confusión en lugar de promover decisiones de salud informadas. En respuesta, el regulador de medicamentos del Reino Unido, la MHRA, ha iniciado investigaciones sobre estas afirmaciones fraudulentas. Los expertos en salud pública continúan instando a las personas a confiar en fuentes creíbles, como el NHS y sus médicos de cabecera, en lugar de promociones pulcras generadas por IA.

Las plataformas de redes sociales se encuentran en una posición desafiante. A pesar de tener políticas diseñadas para combatir el contenido engañoso, las principales empresas tecnológicas, incluida Meta, luchan por seguir el ritmo del enorme volumen y la propagación viral de estos deepfakes. Bajo la Ley de Seguridad en Línea del Reino Unido, las plataformas ahora están legalmente obligadas a abordar el contenido ilegal, incluido el fraude y la suplantación de identidad. Si bien Ofcom supervisa el cumplimiento, la realidad es a menudo un frustrante juego del topo, con contenido ilícito que reaparece con la misma rapidez con la que se elimina.

Esta explotación de la imagen del Dr. Mosley no es un incidente aislado, sino un síntoma preocupante de una tendencia más amplia. Un informe reciente de CBS News destacó docenas de videos deepfake similares que suplantan a médicos reales en todo el mundo, llegando a millones de espectadores desprevenidos. En un caso particularmente escalofriante, un médico descubrió un deepfake que promocionaba un producto que nunca había respaldado, con un parecido fabricado tan preciso que los espectadores fueron completamente engañados, inundando la sección de comentarios con elogios para el médico basados enteramente en una fabricación.

El profundo impacto de este fenómeno se extiende más allá de la mera imitación tecnológica; ataca el núcleo mismo de la confianza pública. Durante décadas, la sociedad ha confiado en las voces tranquilas y conocedoras de los expertos para guiar la comprensión, particularmente en áreas críticas como la salud. Cuando esa confianza se convierte en arma a través de la IA, erosiona los pilares fundamentales de la comunicación científica y la toma de decisiones informadas. La verdadera batalla que se avecina no es solo sobre el refinamiento de las herramientas de detección de IA, sino sobre la reconstrucción y salvaguardia de la confianza pública en un entorno digital cada vez más manipulado. Esto requiere mecanismos de verificación más robustos por parte de las plataformas, el etiquetado transparente del contenido generado por IA y un mayor sentido de escrutinio crítico por parte de los usuarios antes de compartir información.