Libros falsos con IA inundan Amazon, robando identidades de expertos

Decoder

Ha surgido una nueva y preocupante tendencia en Amazon: decenas de libros de cocina y guías de salud falsificados se venden bajo el nombre e imagen prominentes del Dr. Eric Topol, un renombrado médico y científico. El Dr. Topol ha condenado públicamente estas publicaciones como “fraude descarado”, afirmando que estos libros son completamente fabricados y publicados sin su consentimiento. Sus repetidos intentos de denunciar los ISBN fraudulentos a Amazon supuestamente no han dado resultados concretos, y el servicio al cliente del gigante del comercio electrónico solo ha respondido con enlaces genéricos.

El impacto de este engaño ya lo están sintiendo los consumidores. Un comprador relató haber adquirido un libro, confiando en la credibilidad asociada al nombre del Dr. Topol, solo para descubrir que el contenido era una profunda decepción. Este incidente subraya una creciente vulnerabilidad para los consumidores que dependen de nombres de confianza al tomar decisiones de compra en línea.

Si bien el problema de los libros falsos generados por IA no es del todo nuevo en el vasto mercado de Amazon, el gran volumen de títulos que utilizan ilícitamente la identidad del Dr. Topol destaca la escala creciente del problema. La amplia disponibilidad de herramientas sofisticadas de IA generativa, como ChatGPT, combinada con la facilidad de las plataformas de autopublicación, ha creado un terreno fértil para los estafadores. Estas herramientas permiten a los actores maliciosos inundar el mercado con libros que imitan el estilo, la marca y la autoridad percibida de figuras conocidas, lo que dificulta cada vez más que las plataformas controlen el contenido de manera efectiva.

Amazon ha respondido a la creciente crisis implementando varios cambios de política. La compañía ha limitado a los autopublicadores a un máximo de tres libros por día y ahora exige que los autores declaren cualquier uso de texto, imágenes o traducciones generados por IA en sus envíos. Sin embargo, esta información crucial sobre la generación de IA no se divulga actualmente a los clientes, dejándolos sin conocimiento de la naturaleza sintética del contenido que compran. Además, Amazon ha endurecido las regulaciones relativas a los resúmenes y cuadernos de trabajo, que con frecuencia plagian porciones sustanciales de obras originales. A pesar de estas medidas, la difícil situación actual del Dr. Topol sirve como un claro recordatorio de que los libros fraudulentos generados por IA continúan eludiendo las salvaguardias, secuestrando eficazmente la reputación ganada con tanto esfuerzo por expertos de confianza.

Esta forma particular de engaño digital es parte de un espectro más amplio de actividades fraudulentas impulsadas por la IA. La IA generativa se implementa cada vez más a gran escala para generar ingresos publicitarios por medios engañosos, incluidos respaldos de celebridades falsos y campañas de phishing altamente personalizadas. Más allá del fraude comercial, la tecnología también se utiliza indebidamente para crear imágenes o textos sintéticos con carga emocional sobre temas políticamente controvertidos, y para fabricar narrativas mediáticas completas, contribuyendo a un panorama más amplio de desinformación y desconfianza. El caso de la identidad secuestrada del Dr. Topol en Amazon es una clara ilustración de cómo las capacidades de IA en rápida evolución están desafiando los principios fundamentales de la propiedad intelectual, la confianza del consumidor y la responsabilidad de la plataforma en la era digital.