Deepfakes : Les Détecteurs Face à la Menace Croissante de l'IA Fraudeuse

Theregister

La récente convergence de conférences sur la sécurité à Las Vegas, incluant BSides, Black Hat et DEF CON, a mis en lumière une préoccupation omniprésente : la menace croissante de la fraude, considérablement amplifiée par les avancées de l’intelligence artificielle. Alors que le coût des outils d’IA chute et que la technologie deepfake devient de plus en plus sophistiquée, les experts anticipent une recrudescence de la tromperie numérique. Deloitte, par exemple, estime que la fraude deepfake pourrait coûter jusqu’à 40 milliards de dollars à l’économie américaine d’ici 2027, une estimation que de nombreux membres de la communauté de la sécurité jugent conservatrice. Cette tendance alarmante fait suite aux remarques de leaders de l’industrie, comme Sam Altman, qui a controversément suggéré que l’IA avait effectivement contourné la plupart des méthodes d’authentification conventionnelles, à l’exception des mots de passe.

Malgré un marché florissant pour les logiciels de détection de deepfakes, l’efficacité de ces outils reste un point de discorde crucial. Karthik Tadinada, qui a passé plus d’une décennie à surveiller la fraude pour de grandes banques britanniques chez Featurespace, note que la technologie anti-deepfake atteint généralement une précision d’environ 90 % dans l’identification des activités frauduleuses et l’élimination des faux positifs. Bien que cela semble élevé, cette marge d’erreur de 10 % présente une opportunité substantielle pour les criminels, d’autant plus que les coûts associés à la génération de fausses identités continuent de baisser. Comme le souligne Tadinada, « L’économie des personnes qui génèrent ces choses par rapport à ce que vous pouvez détecter et gérer, eh bien, ces 10 % sont encore suffisants pour le profit. »

L’usurpation d’identité vidéo, bien qu’antérieure à l’IA, a été considérablement amplifiée par l’apprentissage automatique. Tadinada et son ancien collègue de Featurespace, Martyn Higson, l’ont démontré en superposant sans effort le visage du Premier ministre britannique Keir Starmer sur le corps de Higson, avec une imitation vocale convaincante, le tout réalisé à l’aide d’un simple MacBook Pro. Bien que cet exemple particulier n’ait pas été suffisamment sophistiqué pour contourner les systèmes avancés de détection de deepfakes — les visages générés par l’IA présentent souvent des signes révélateurs comme des bajoues anormalement gonflées ou des apparences rigides — il s’est avéré plus que suffisant pour diffuser de la propagande ou de la désinformation. Cela a été souligné par un incident récent où le journaliste Chris Cuomo a brièvement publié, puis retiré, une vidéo deepfake de la représentante américaine Alexandria Ocasio-Cortez faisant des déclarations controversées.

Mike Raggo, chef d’équipe rouge chez Silent Signals, une firme de surveillance médiatique, confirme que la qualité des fausses vidéos s’est drastiquement améliorée. Cependant, il souligne également l’émergence de techniques promettant une détection plus efficace. Silent Signals, par exemple, a développé Fake Image Forensic Examiner v1.1, un outil gratuit basé sur Python lancé en conjonction avec GPT-5 d’OpenAI. Cet outil analyse les vidéos téléchargées image par image, recherchant méticuleusement les signes de manipulation tels que le flou sur les bords des objets ou les anomalies dans les éléments d’arrière-plan. Il est crucial d’examiner les métadonnées, car de nombreux outils de manipulation vidéo, qu’ils soient commerciaux ou open-source, laissent par inadvertance des traces numériques dans le code du fichier, qu’un moteur de détection robuste peut identifier.

Au-delà de la vidéo, les images sont peut-être le vecteur le plus préoccupant pour les fraudeurs, étant donné leur facilité de création et la dépendance croissante des entreprises à leur égard. L’expérience de Tadinada dans le secteur bancaire a mis en évidence la vulnérabilité des dossiers électroniques, en particulier pendant la pandémie de COVID-19, lorsque les services bancaires en personne ont diminué. L’ouverture d’un compte bancaire au Royaume-Uni, par exemple, nécessite généralement une pièce d’identité valide et une facture de services publics récente, deux éléments que Tadinada a démontré pouvoir être facilement falsifiés et difficiles à vérifier électroniquement. Bien que Raggo ait observé des solutions prometteuses de détection de deepfake à Black Hat, il a souligné que tout outil efficace doit privilégier l’analyse des métadonnées — en recherchant les profils ICC (International Color Consortium) manquants (signatures numériques liées à l’équilibre des couleurs) ou les métadonnées spécifiques aux fournisseurs, comme l’habitude de Google d’intégrer « Google Inc » dans les fichiers image Android. De plus, l’analyse des bords, qui examine les limites des objets pour détecter le flou ou les incohérences de luminosité, et la variance des pixels, qui mesure les changements de couleur à l’intérieur des objets, sont des techniques vitales.

La détection des deepfakes vocaux, cependant, présente un ensemble de défis différents, et ces attaques vocales sont en augmentation. En mai, le FBI a émis un avertissement concernant une campagne de fraude employant des voix générées par l’IA de politiciens américains pour inciter des individus à accorder l’accès à des systèmes gouvernementaux à des fins lucratives. Le conseil du FBI, notablement non technique, a exhorté les utilisateurs à vérifier indépendamment la source et à écouter les incohérences subtiles dans le vocabulaire ou l’accent, reconnaissant la difficulté croissante à distinguer le contenu généré par l’IA. De même, un concours d’un an parrainé par la Federal Trade Commission pour détecter les voix générées par l’IA a offert un modeste prix de 35 000 dollars, reflétant le stade naissant de ce domaine de détection.

Bien que les technologies de clonage vocal aient des applications légitimes, telles que la transcription, le doublage médiatique et l’amélioration des bots de centres d’appels — Azure AI Speech de Microsoft, par exemple, peut générer des clones vocaux convaincants à partir de quelques secondes d’audio, bien qu’avec un filigrane imparfait — elles sont également un outil puissant pour les fraudeurs. Une étude de Consumer Reports sur six services de clonage vocal a révélé que les deux tiers faisaient peu d’efforts pour prévenir les abus, exigeant souvent seulement une simple case à cocher affirmant le droit légal de cloner une voix. Une seule entreprise testée, Resemble AI, a exigé un clip audio en temps réel, bien que même cela puisse parfois être trompé par de l’audio enregistré, mais avec une précision réduite en raison de problèmes de qualité sonore. De nombreuses entreprises de clonage vocal, y compris Resemble AI, intègrent désormais la détection de deepfake dans leurs offres. Le PDG de Resemble, Zohaib Ahmed, a expliqué que leur vaste base de données de voix réelles et clonées fournit des informations précieuses, leur permettant d’identifier des « artefacts » subtils, indétectables par l’homme, qui distinguent les faux.

En fin de compte, tout comme la cybersécurité traditionnelle, il n’existe pas de solution technologique infaillible pour la détection de deepfake. L’élément humain reste critique. Eric Escobar, chef d’équipe rouge chez Sophos, conseille un « sens de la précaution » et souligne que « la vérification est absolument essentielle, en particulier si de l’argent est en jeu ». Il exhorte les individus à demander : « Est-ce que cela correspond à son caractère ? » et à vérifier deux fois en cas de doute. Tadinada renforce cela pour l’industrie financière, insistant sur le fait qu’en plus de l’analyse des deepfakes, les transactions financières elles-mêmes doivent être surveillées pour détecter des schémas suspects, à l’instar d’autres méthodes de détection de fraude.

La course aux armements qui s’intensifie est compliquée par les Réseaux Génératifs Antagonistes (GANs), qui emploient deux moteurs d’IA concurrents — un générateur qui crée des médias et un discriminateur qui tente d’identifier le contenu fabriqué — pour améliorer itérativement le réalisme des deepfakes. Bien que les GANs actuels puissent laisser des signatures discernables dans les métadonnées, la technologie promet des résultats de plus en plus convaincants, conduisant inévitablement à des tentatives de fraude plus réussies.