Deepfakes IA: Dr. Mosley, figure de confiance exploitée pour des arnaques santé
Le paysage numérique est de plus en plus truffé de tromperies, et une forme particulièrement insidieuse a émergé, exploitant l’image de confiance du défunt Dr. Michael Mosley. Des escrocs déploient désormais des vidéos deepfake générées par IA, mettant en scène Mosley, une figure familière et respectée dans le domaine de la diffusion d’informations sur la santé, pour commercialiser agressivement des suppléments non prouvés tels que l’ashwagandha et les gommes de betterave. Ces clips fabriqués, circulant largement sur les plateformes de médias sociaux comme Instagram et TikTok, montrent Mosley semblant approuver des allégations de santé farfelues liées à la ménopause, à l’inflammation et à d’autres tendances de bien-être à la mode – aucune d’entre elles n’ayant jamais été véritablement soutenue par lui.
La sophistication de ces créations d’IA est alarmante. Elles assemblent méticuleusement des fragments des podcasts et apparitions publiques passées de Mosley, imitant avec précision son ton distinctif, ses expressions faciales et même ses subtiles hésitations. Le résultat est étrangement convaincant, amenant souvent les spectateurs à faire une pause et à se demander s’ils regardent bien l’expert en santé adoré, pour être ensuite choqués par la réalisation qu’il est décédé l’année dernière. Des chercheurs d’institutions comme le Turing Institute ont averti que les avancées rapides de l’IA rendent de plus en plus difficile de distinguer le contenu authentique du matériel fabriqué sur la base des seuls indices visuels, signalant un défi profond pour la littératie numérique.
Au-delà du choc initial, les implications de ces vidéos deepfake sont extrêmement graves. Elles colportent des affirmations non vérifiées et potentiellement dangereuses — allant des gommes de betterave censées guérir les anévrismes à la moringa équilibrant les hormones — qui sont divorcées de la réalité médicale. Des diététiciens ont exprimé leurs préoccupations quant au fait que de tels contenus sensationnalistes et trompeurs sapent gravement la compréhension du public des principes légitimes de nutrition et de santé. Les suppléments, soulignent-ils, ne sont pas des raccourcis vers le bien-être, et ces exagérations sèment la confusion plutôt que de promouvoir des décisions de santé éclairées. En réponse, l’organisme de réglementation des médicaments du Royaume-Uni, le MHRA, a lancé des enquêtes sur ces allégations frauduleuses. Les experts en santé publique continuent d’exhorter les individus à se fier à des sources crédibles, telles que le NHS et leurs médecins généralistes, plutôt qu’à des promotions soignées générées par l’IA.
Les plateformes de médias sociaux se trouvent dans une position difficile. Malgré des politiques conçues pour lutter contre les contenus trompeurs, les grandes entreprises technologiques, y compris Meta, peinent à suivre le rythme du volume et de la propagation virale de ces deepfakes. En vertu de la loi britannique sur la sécurité en ligne (Online Safety Act), les plateformes sont désormais légalement obligées de traiter les contenus illégaux, y compris la fraude et l’usurpation d’identité. Bien qu’Ofcom supervise l’application, la réalité est souvent un jeu frustrant de « tape-taupe », où le contenu illicite réapparaît fréquemment aussi vite qu’il est supprimé.
Cette exploitation de l’image du Dr. Mosley n’est pas un incident isolé, mais plutôt un symptôme troublant d’une tendance plus large. Un récent reportage de CBS News a mis en lumière des dizaines de vidéos deepfake similaires usurpant l’identité de vrais médecins dans le monde entier, atteignant des millions de spectateurs sans méfiance. Dans un cas particulièrement glaçant, un médecin a découvert un deepfake faisant la promotion d’un produit qu’il n’avait jamais approuvé, avec une ressemblance fabriquée si précise que les spectateurs ont été complètement dupés, inondant la section des commentaires d’éloges pour le médecin basés entièrement sur une fabrication.
L’impact profond de ce phénomène s’étend au-delà de la simple imitation technologique ; il frappe au cœur même de la confiance publique. Pendant des décennies, la société s’est appuyée sur les voix calmes et bien informées des experts pour guider la compréhension, en particulier dans des domaines critiques comme la santé. Lorsque cette confiance est militarisée par l’IA, elle érode les piliers fondamentaux de la communication scientifique et de la prise de décision éclairée. La véritable bataille à venir ne consiste pas seulement à affiner les outils de détection de l’IA, mais à reconstruire et à sauvegarder la confiance du public dans un environnement numérique de plus en plus manipulé. Cela nécessite des mécanismes de vérification plus robustes de la part des plateformes, un étiquetage transparent du contenu généré par l’IA et un sens accru de l’examen critique de la part des utilisateurs avant qu’ils ne partagent des informations.