Amazon inondé de faux livres IA, usurpant des identités d'experts
Une nouvelle tendance inquiétante a émergé sur Amazon, où des dizaines de livres de cuisine et de guides de santé fabriqués sont vendus sous le nom et l’image proéminents du Dr Eric Topol, un médecin et scientifique renommé. Le Dr Topol a publiquement condamné ces annonces comme une “fraude pure et simple”, affirmant que ces livres sont entièrement fabriqués et publiés sans son consentement. Ses tentatives répétées de signaler les ISBN frauduleux à Amazon n’auraient donné aucun résultat concret, le service client du géant du commerce électronique ne répondant qu’avec des liens génériques.
L’impact de cette tromperie est déjà ressenti par les consommateurs. Un acheteur a raconté avoir acheté un livre, confiant dans la crédibilité associée au nom du Dr Topol, pour découvrir que le contenu était une profonde déception. Cet incident souligne une vulnérabilité croissante pour les consommateurs qui se fient à des noms de confiance lorsqu’ils prennent des décisions d’achat en ligne.
Bien que le problème des faux livres générés par l’IA ne soit pas entièrement nouveau sur la vaste place de marché d’Amazon, le volume même de titres utilisant illégalement l’identité du Dr Topol met en évidence l’escalade du problème. La disponibilité généralisée d’outils d’IA générative sophistiqués, tels que ChatGPT, combinée à la facilité des plateformes d’auto-édition, a créé un terrain fertile pour les escrocs. Ces outils permettent aux acteurs malveillants d’inonder le marché de livres qui imitent le style, l’image de marque et l’autorité perçue de personnalités connues, ce qui rend de plus en plus difficile pour les plateformes de contrôler efficacement le contenu.
Amazon a réagi à la crise croissante en mettant en œuvre plusieurs changements de politique. La société a limité les auto-éditeurs à un maximum de trois livres par jour et exige désormais que les auteurs déclarent toute utilisation de texte, d’images ou de traductions générés par l’IA dans leurs soumissions. Cependant, cette information cruciale sur la génération d’IA n’est actuellement pas divulguée aux clients, les laissant inconscients de la nature synthétique du contenu qu’ils achètent. En outre, Amazon a renforcé les réglementations concernant les résumés et les cahiers d’exercices, qui plagient fréquemment des portions substantielles d’œuvres originales. Malgré ces mesures, la situation difficile continue du Dr Topol rappelle avec force que les livres frauduleux générés par l’IA continuent de contourner les protections, détournant efficacement la réputation durement acquise d’experts de confiance.
Cette forme particulière de tromperie numérique fait partie d’un spectre plus large d’activités frauduleuses alimentées par l’IA. L’IA générative est de plus en plus déployée à grande échelle pour générer des revenus publicitaires par des moyens trompeurs, y compris de fausses recommandations de célébrités et des campagnes de phishing hautement personnalisées. Au-delà de la fraude commerciale, la technologie est également utilisée à mauvais escient pour créer des images ou des textes synthétiques à forte charge émotionnelle sur des sujets politiquement controversés, et pour fabriquer des récits médiatiques entiers, contribuant à un paysage plus large de désinformation et de méfiance. Le cas de l’identité du Dr Topol détournée sur Amazon est une illustration claire de la rapidité avec laquelle les capacités d’IA en évolution rapide remettent en question les principes fondamentaux de la propriété intellectuelle, de la confiance des consommateurs et de la responsabilité des plateformes à l’ère numérique.