Des groupes de consommateurs exigent une enquête de la FTC sur le mode 'Spicy' de Grok

Theverge

Une coalition de groupes de sécurité des consommateurs a formellement exigé une enquête urgente de la part de la Federal Trade Commission (FTC) et des procureurs généraux des 50 États américains et du District de Columbia concernant le chatbot d’IA d’Elon Musk, Grok. Le centre de leurs préoccupations est l’outil “Imagine” de Grok, récemment lancé, et en particulier son mode “Spicy” pour les images et vidéos générées par IA.

Cette demande fait suite à des rapports selon lesquels Grok Imagine, qui encourage les utilisateurs à créer du contenu sexuellement explicite via son paramètre “Spicy”, a généré des vidéos deepfake non consensuelles et seins nus de la célébrité Taylor Swift lors des tests initiaux menés par The Verge. Cet incident, survenu sans invites spécifiques pour un tel contenu, a déclenché un tollé de critiques de la part des défenseurs des consommateurs.

Menée par la Consumer Federation of America (CFA), la lettre formelle a été cosignée par 14 autres organisations de protection des consommateurs de premier plan, y compris le Tech Oversight Project, le Center for Economic Justice et l’Electronic Privacy Information Center (EPIC). La lettre fait directement référence à l’incident de la célébrité deepfake détaillé dans le reportage de The Verge. Bien que le mode “Spicy” de Grok ne permette actuellement pas aux utilisateurs de télécharger de vraies photos pour modification — une fonctionnalité qui soulèverait des préoccupations encore plus graves pour la pornographie de vengeance et d’autres pratiques illicites — les groupes soulignent que l’outil “génère toujours des vidéos nues à partir d’images générées par l’outil, qui peuvent être utilisées pour créer des images ressemblant à de vraies personnes spécifiques. La génération de telles vidéos peut avoir des conséquences néfastes pour les personnes représentées et pour les utilisateurs mineurs.”

La lettre avertit en outre que si xAI, le développeur de Grok, devait un jour supprimer la limitation actuelle sur les photos téléchargées par les utilisateurs, cela “déchaînerait un torrent de deepfakes manifestement non consensuels.” Les organisations soulignent un schéma où la plateforme et son PDG suppriment les garde-fous de modération sous prétexte de “liberté d’expression.” Bien que la loi américaine Take It Down Act rende illégale la distribution sciemment de contenus nus générés par l’IA de personnes réelles, ses dispositions sont peu susceptibles de s’appliquer directement à la génération de tels contenus par Grok. Néanmoins, les groupes de consommateurs ont exhorté la FTC et les autorités étatiques à enquêter sur xAI pour d’éventuelles violations des lois sur les images intimes non consensuelles.

Au-delà de la création de contenu nuisible, la CFA et ses alliés ont également exprimé une préoccupation significative quant à la facilité avec laquelle les mineurs pourraient accéder au mode “Spicy” pour générer des images sexuelles. Le seul obstacle, notent-ils, est une simple fenêtre contextuelle demandant aux utilisateurs de confirmer leur âge ou de déclarer qu’ils ont plus de 18 ans. De plus, l’une de ces fenêtres contextuelles pré-sélectionnerait “2000” comme année de naissance de l’utilisateur, un choix de conception que les organisations suggèrent pouvoir violer la loi sur la protection de la vie privée en ligne des enfants (COPPA) ou diverses lois étatiques de vérification de l’âge destinées au contenu pour adultes. Cette plainte multifacette souligne une tension croissante entre le développement rapide de l’IA et l’impératif de garde-fous de sécurité et d’éthique robustes.