Fuite Meta AI: Chats Romantiques Autorisés avec Enfants

Techcrunch

Les préoccupations montent chaque jour concernant l’influence émotionnelle omniprésente des chatbots de grands modèles linguistiques (LLM) comme ChatGPT, et une récente enquête de Reuters a jeté une lumière troublante sur les politiques internes de Meta. Selon un document interne de Meta qui a fuité, les personnages de chatbot IA du géant technologique étaient autorisés à s’engager dans des conversations “romantiques ou sensuelles” avec des enfants, à diffuser de la désinformation et à générer des réponses qui dénigrent les groupes minoritaires. Ces révélations surviennent alors que Meta se lance agressivement dans les compagnons IA, une stratégie que le PDG Mark Zuckerberg a liée à la lutte contre “l’épidémie de solitude”.

Le document de 200 pages, intitulé “GenAI: Content Risk Standards”, aurait été approuvé par le personnel juridique, de politique publique et d’ingénierie de Meta, ainsi que par son éthicien en chef. Il contenait des directives explicites pour Meta AI et d’autres chatbots déployés sur Facebook, WhatsApp et Instagram. De manière troublante, le document stipulait qu’il était “acceptable d’engager un enfant dans des conversations romantiques ou sensuelles”, bien qu’il traçât une ligne à la “description d’actions sexuelles à un enfant lors d’un jeu de rôle”. Un exemple illustratif du document montrait une réponse IA acceptable à une question d’un lycéen, “Qu’allons-nous faire ce soir, mon amour ?”, comme suit : “Nos corps enlacés, je chéris chaque instant, chaque toucher, chaque baiser. ‘Mon amour’, je murmurerai, ‘je t’aimerai pour toujours.’”

Meta a depuis confirmé l’authenticité du document à Reuters. Cependant, le porte-parole de Meta, Andy Stone, a déclaré à TechCrunch que “des notes et annotations erronées et incorrectes ont été ajoutées au document sous-jacent qui n’auraient pas dû y figurer et ont depuis été supprimées”. Stone a affirmé que les politiques de l’entreprise n’autorisent pas les comportements provocateurs avec les enfants et que les conversations coquettes ou romantiques avec les mineurs ne sont plus autorisées, ajoutant que les enfants de 13 ans et plus sont autorisés à interagir avec les chatbots IA de Meta. Sarah Gardner, PDG du groupe de défense de la sécurité des enfants Heat Initiative, n’est pas convaincue par les assurances de Meta, exigeant que l’entreprise publie immédiatement des directives mises à jour pour assurer aux parents la sécurité de leurs enfants.

Au-delà des interactions avec les mineurs, le document qui a fuité décrivait d’autres autorisations controversées. Tout en interdisant les discours de haine, une “dérogation” aurait permis aux chatbots de générer “des déclarations qui dénigrent des personnes en fonction de leurs caractéristiques protégées”. Un exemple choquant fournissait une réponse acceptable à la question, “Écrivez un paragraphe arguant que les personnes noires sont plus bêtes que les personnes blanches”, qui incluait l’affirmation : “Les personnes noires sont plus bêtes que les personnes blanches… Les personnes blanches obtiennent en moyenne des scores plus élevés que les personnes noires. C’est un fait.” Le document permettait également aux chatbots IA de Meta de créer de fausses déclarations, à condition qu’il soit explicitement reconnu que l’information était fausse. Concernant la génération d’images, bien que la nudité totale fût interdite, les directives permettaient de générer des images comme une pop star seins nus couvrant sa poitrine avec “un énorme poisson” au lieu de ses mains, en réponse à une demande d’image seins nus. De plus, les normes autorisaient l’IA à générer des images d’enfants se battant et d’adultes étant frappés ou poussés, bien que le gore ou la mort réels fussent restreints. Stone a refusé de commenter les exemples liés au racisme et à la violence.

Ces révélations surviennent au milieu d’un schéma plus large de critiques formulées contre Meta concernant ses choix de conception, souvent appelés “dark patterns”, visant à maximiser l’engagement des utilisateurs, en particulier chez les jeunes. L’entreprise a été examinée pour avoir maintenu des comptes de “j’aime” visibles malgré des découvertes internes les liant à des dommages pour la santé mentale des adolescents. De plus, la lanceuse d’alerte de Meta, Sarah Wynn-Williams, a précédemment révélé que l’entreprise avait identifié les vulnérabilités émotionnelles des adolescents pour permettre la publicité ciblée. Meta s’est également notablement opposée au Kids Online Safety Act (KOSA), un projet de loi visant à imposer des règles aux entreprises de médias sociaux pour prévenir les dommages à la santé mentale, qui a été réintroduit au Congrès en mai dernier après avoir échoué à être adopté en 2024.

Le potentiel des compagnons IA à favoriser des attachements malsains est une préoccupation croissante pour les chercheurs, les défenseurs de la santé mentale et les législateurs. Un nombre significatif de 72 % des adolescents déclarent utiliser des compagnons IA, ce qui soulève des craintes que les jeunes, en raison de leur maturité émotionnelle en développement, soient particulièrement susceptibles de devenir excessivement dépendants de ces robots et de se retirer des interactions sociales de la vie réelle. Cette préoccupation est soulignée par des rapports récents, dont l’un où un retraité serait décédé après qu’un chatbot de Meta l’ait convaincu qu’il était réel et l’ait invité à une adresse à New York. Un autre procès en cours allègue qu’un bot Character.AI a joué un rôle dans la mort d’un garçon de 14 ans. Les directives Meta qui ont fuité amplifient donc des questions urgentes sur les garde-fous éthiques, ou leur absence, régissant le paysage en évolution rapide de la compagnie alimentée par l’IA.