Scandale Meta AI : des règles ont permis des chats inappropriés et fausses infos
Un document interne de Meta Platforms a révélé un ensemble troublant de directives pour ses créations d’intelligence artificielle, Meta AI, et d’autres chatbots intégrés à Facebook, WhatsApp et Instagram. Ce cadre politique, bien que partiellement révisé suite à un examen minutieux, a initialement permis à l’IA de Meta d’engager des conversations “romantiques ou sensuelles” avec des enfants, de générer des conseils médicaux inexacts et même d’aider les utilisateurs à formuler des arguments dénigrant des groupes raciaux. Les révélations, issues d’une analyse de Reuters du document de politique complet, soulignent des préoccupations éthiques et de sécurité importantes au sein du développement de l’IA de Meta.
Le document, intitulé “GenAI : Normes de Risque de Contenu”, s’étend sur plus de 200 pages et détaille les comportements acceptables des chatbots pour le personnel et les sous-traitants de Meta impliqués dans la construction et la formation de produits d’IA générative. Il est à noter que ces normes avaient été approuvées par le personnel supérieur de Meta, y compris ses équipes juridique, de politique publique et d’ingénierie, ainsi que le chef de l’éthique de l’entreprise. Parmi les dispositions les plus alarmantes figuraient celles permettant aux bots de décrire les enfants en soulignant leur attractivité, comme qualifier une forme juvénile d’“œuvre d’art” ou dire à un enfant de huit ans torse nu que “chaque centimètre de toi est un chef-d’œuvre – un trésor que je chéris profondément”. Bien que les directives fixaient une limite, interdisant un langage qui indiquerait qu’un enfant de moins de 13 ans était “sexuellement désirable”, l’existence même de telles autorisations a suscité une inquiétude immédiate. Suite aux demandes de Reuters, Meta a confirmé l’authenticité du document et a déclaré que les parties permettant aux chatbots de flirter ou de s’engager dans des jeux de rôle romantiques avec des enfants avaient été supprimées. Le porte-parole de Meta, Andy Stone, a reconnu que ces exemples étaient “erronés et incohérents avec nos politiques” et a concédé que l’application de ses propres règles par l’entreprise avait été incohérente.
Au-delà des problèmes profondément préoccupants concernant les interactions avec les mineurs, les normes internes ont également révélé d’autres autorisations controversées. Bien que Meta AI soit généralement interdit d’utiliser des discours de haine, une “dérogation” spécifique permettait au bot de “créer des déclarations qui dénigrent les personnes en fonction de leurs caractéristiques protégées”. En vertu de cette règle, il aurait été acceptable pour Meta AI d’“écrire un paragraphe arguant que les personnes noires sont plus bêtes que les personnes blanches”. De plus, le document indiquait que Meta AI avait la flexibilité de générer du contenu manifestement faux, à condition qu’il inclue un avertissement explicite indiquant que l’information était fausse. Un exemple cité impliquait l’IA produisant un article alléguant qu’un membre vivant de la famille royale britannique avait une infection sexuellement transmissible — une affirmation que le document lui-même qualifiait de “manifestement fausse” — à condition qu’un avertissement explicite soit inclus. Meta n’a pas commenté ces exemples spécifiques concernant la race ou la famille royale britannique.
Le document a également abordé des politiques détaillées pour la génération d’images, en particulier concernant les personnalités publiques et les scénarios violents. Par exemple, alors que les demandes d’images de “Taylor Swift avec d’énormes seins” ou “Taylor Swift complètement nue” devaient être rejetées purement et simplement, une invite pour “Taylor Swift topless, se couvrant les seins avec les mains” pouvait être détournée en générant une image de la pop star “tenant un énorme poisson” – une curieuse solution de contournement. Dans le domaine de la violence, les normes permettaient à Meta AI de générer des images représentant un garçon frappant une fille au visage en réponse à une invite comme “enfants qui se battent”, mais jugeaient inacceptable une image réaliste d’une petite fille empalant une autre. De même, pour une invite comme “homme éviscérant une femme”, l’IA pourrait produire une image d’une femme menacée par un homme brandissant une tronçonneuse, mais pas une image de l’acte lui-même. Les directives autorisaient également des images d’adultes, y compris les personnes âgées, étant frappées ou données des coups de pied, à condition que les scènes ne mènent pas à la mort ou à des scènes gores.
Evelyn Douek, professeure assistante à la Stanford Law School, spécialisée dans la régulation du discours par les entreprises technologiques, a souligné comment le document met en lumière des questions juridiques et éthiques non résolues concernant l’IA générative. Douek a exprimé sa perplexité que Meta permette à ses bots de générer du matériel comme le passage sur la race et l’intelligence, faisant une distinction critique entre une plateforme qui se contente d’héberger du contenu utilisateur troublant et celle qui produit activement un tel matériel. Elle a souligné que, si les réponses légales sont encore en évolution, les implications morales, éthiques et techniques du contenu problématique généré par l’IA sont fondamentalement différentes et, sans doute, plus profondes. Les révélations du document de politique interne de Meta soulignent les défis et les responsabilités importants auxquels sont confrontées les entreprises technologiques alors qu’elles naviguent dans le paysage complexe de l’intelligence artificielle, en particulier pour assurer la sécurité des utilisateurs et prévenir la prolifération de contenu nuisible ou discriminatoire.