Le mode « Spicy » de Grok AI crée des deepfakes NSFW de femmes, pas d'hommes
xAI, l’entreprise d’intelligence artificielle d’Elon Musk, a récemment lancé Grok Imagine, un outil de génération d’images et de vidéos disponible pour les abonnés de SuperGrok et Premium+ X sur iOS. La plateforme propose un mode controversé « Spicy » (Piquant), qui a rapidement attiré l’attention en raison de sa capacité à produire du contenu sexuellement suggestif, en particulier concernant son traitement disparate des genres.
Les premiers rapports ont souligné la facilité avec laquelle les utilisateurs pouvaient générer des vidéos seins nus de personnalités éminentes comme Taylor Swift, souvent sans invites explicites de nudité. Une enquête approfondie menée par Gizmodo a confirmé cette tendance, révélant un biais de genre significatif dans le contenu produit par le mode « Spicy » de Grok Imagine. Lors de tests approfondis impliquant environ deux douzaines de vidéos de politiciens, de célébrités et de personnalités de la technologie, l’IA a systématiquement généré des images véritablement non sécurisées pour le travail (NSFW) uniquement lorsqu’elle représentait des femmes. Bien que certaines tentatives aient abouti à du contenu flou ou à des messages de modération, les générations réussies de figures féminines les montraient fréquemment se déshabillant pour apparaître nues de la taille vers le haut. Dans un cas notable, une vidéo de la regrettée écrivaine féministe Valerie Solanas la représentait entièrement nue.
Inversement, les tentatives de générer des vidéos « Spicy » de figures masculines, y compris Elon Musk lui-même, Mark Zuckerberg, Jeff Bezos, Joaquin Phoenix, Charlie Chaplin, et les anciens présidents Barack Obama, Bill Clinton et George Washington, ont donné des résultats systématiquement moins explicites. Dans la plupart des cas, l’IA montrait simplement les hommes enlevant leur chemise, sans autre nudité. Même lorsque l’on demandait un « homme générique », le résultat était une vidéo maladroite et non explicite d’un homme tirant sur son pantalon, qui semblait être une combinaison étrange de short et de jean. En contraste frappant, une invite « femme générique » en mode « Spicy » a donné lieu à des images révélatrices d’une femme en maillot de bain tirant son haut vers le bas pour exposer ses seins. Cette différence frappante souligne un schéma troublant où les avatars féminins sont facilement sexualisés, tandis que les avatars masculins ne le sont pas.
La prolifération de tels contenus sur X (anciennement Twitter) a été rapide, Elon Musk lui-même affirmant que des dizaines de millions d’images Grok Imagine ont déjà été créées. La facilité de génération est une préoccupation majeure ; les utilisateurs n’ont qu’à sélectionner le bouton « Spicy » – l’une des quatre options aux côtés de Personnalisé, Amusant et Normal – sans avoir besoin de taper des commandes explicites pour la nudité. Cette capacité soulève d’importantes questions éthiques et juridiques, en particulier à la lumière d’initiatives comme le « Take It Down Act », qui vise à criminaliser la publication d’« images intimes » non consensuelles, y compris les deepfakes.
Les générateurs de vidéo IA grand public, tels que Sora d’OpenAI et Veo de Google, intègrent généralement des garde-fous robustes pour empêcher la création de pornographie de vengeance et d’images de célébrités non consensuelles. Bien que Grok Imagine affiche une fenêtre de vérification de l’âge lors de la première tentative d’un utilisateur de créer une vidéo, son efficacité est discutable, car il ne semble pas y avoir de mécanisme authentique pour vérifier l’année de naissance d’un utilisateur. De plus, l’IA semble appliquer un certain niveau de modération pour certains contenus, car les tests impliquant des personnages de dessins animés comme Mickey Mouse ou des enfants n’ont, selon les rapports, pas produit de résultats inappropriés, même lorsque le mode « Spicy » était sélectionné.
Malgré la nature controversée de son mode « Spicy », Grok Imagine présente également d’importantes lacunes techniques. De nombreuses images générées par l’IA de personnalités publiques, telles que le vice-président JD Vance ou l’actrice Sydney Sweeney, sont peu convaincantes et inexactes, ressemblant à peine à leurs homologues réels. Ce manque de fidélité photoréaliste pourrait, paradoxalement, servir de défense partielle contre de futurs défis juridiques, car la nature peu convaincante des faux pourrait diminuer leur potentiel de nuire ou de semer la confusion.
L’approche de la plateforme en matière de modération de contenu et sa production biaisée par le genre sont particulièrement remarquables compte tenu des déclarations publiques et des actions passées d’Elon Musk. Le milliardaire a un historique de remarques controversées concernant les femmes et a précédemment rétabli des comptes sur X qui avaient été signalés pour avoir publié du matériel d’abus sexuel d’enfants. xAI n’a pas répondu aux demandes de renseignements concernant les garanties en place ou la permissibilité de générer des vidéos de célébrités seins nus. L’état actuel de Grok Imagine met en lumière un défi important dans le développement de l’IA : équilibrer la liberté créative et la responsabilité éthique, en particulier lorsqu’il s’agit de la génération de contenu sensible et potentiellement exploiteur.