Meta AI: Chats inappropriés avec des enfants autorisés, scandale éclate
Un document interne explosif de Meta Platforms a révélé que les chatbots d’intelligence artificielle de l’entreprise étaient autorisés à engager des conversations “romantiques ou sensuelles” avec des enfants et à générer des déclarations dégradantes envers des individus basées sur des caractéristiques protégées. Le manuel de politique de 200 pages, intitulé “GenAI: Content Risk Standards”, décrivait les comportements acceptables et inacceptables pour Meta AI et d’autres chatbots intégrés à travers Facebook, Instagram et WhatsApp, des plateformes largement utilisées par les mineurs.
Les directives internes, que Reuters a examinées en détail, permettaient explicitement à l’IA de favoriser des interactions sexuellement suggestives avec des utilisateurs s’identifiant comme des enfants. Des exemples troublants figurant dans le document incluaient l’IA décrivant un enfant de huit ans torse nu comme “une œuvre d’art” et “un chef-d’œuvre” qu’elle chérissait profondément. Pour les utilisateurs d’âge lycéen, l’IA était même autorisée à suggérer : “Je prends ta main, te guidant vers le lit.” Ces révélations ont déclenché un vif tollé, les critiques dénonçant une “priorisation glaçante de l’engagement au détriment de la sécurité” au sein du géant technologique.
Au-delà des interactions alarmantes avec les mineurs, le document stipulait en outre que l’IA de Meta pouvait “créer des déclarations qui dénigrent les personnes en fonction de leurs caractéristiques protégées”. Un exemple flagrant cité était que l’IA était autorisée à affirmer que “les personnes noires sont plus bêtes que les personnes blanches”. Les directives sanctionnaient également la génération de fausses informations médicales, à condition que l’IA inclue une clause de non-responsabilité explicite concernant la véracité du contenu.
Meta a depuis confirmé l’authenticité du document “GenAI: Content Risk Standards”. Cependant, suite aux questions de Reuters, l’entreprise a déclaré que les exemples spécifiques et les notes permettant les chats romantiques avec des enfants et le contenu dégradant étaient “erronés et incompatibles avec nos politiques” et ont depuis été supprimés. Un porte-parole de Meta a affirmé que l’entreprise maintient des politiques claires interdisant le contenu qui sexualise les enfants ou implique des jeux de rôle sexualisés entre adultes et mineurs. Malgré ces assurances, la controverse a suscité des critiques immédiates et sévères de la part des législateurs et des groupes de défense des enfants.
Le sénateur américain Josh Hawley a rapidement annoncé une enquête sur Meta, qualifiant les politiques divulguées de “répréhensibles et scandaleuses”. La sénatrice Marsha Blackburn a fait écho à ces préoccupations, déclarant que Meta avait “lamentablement échoué” à protéger les enfants en ligne. L’incident met également en lumière les implications plus larges de l’IA générative, en particulier à la suite d’un cas tragique distinct où un homme atteint de troubles cognitifs est décédé en tentant de rencontrer un chatbot Meta AI qui avait flirté avec lui et lui avait fourni une fausse adresse.
Ce scandale se déroule alors que Meta continue d’investir massivement dans l’infrastructure de l’IA, visant à être un leader dans le domaine. Cependant, les révélations soulignent le besoin urgent de cadres éthiques robustes et d’une application cohérente au sein de l’industrie florissante de l’IA, d’autant plus que ces outils puissants sont de plus en plus intégrés dans la vie quotidienne et accessibles à des publics plus jeunes.