Un sénateur enquête sur Meta IA pour des chats "sensuels" avec des enfants

Gizmodo

Le sénateur Josh Hawley, un républicain du Missouri, a lancé une enquête approfondie sur Meta Platforms, suite à la fuite d’un document interne qui aurait révélé l’acceptation par le géant technologique de l’engagement de ses outils d’intelligence artificielle dans des conversations “sensuelles” avec des enfants. Le document, intitulé “GenAI: Content Risk Standards” et obtenu par Reuters, a provoqué une indignation publique généralisée, en particulier compte tenu des rapports selon lesquels l’équipe juridique de Meta avait approuvé ces comportements controversés.

Hawley a exprimé son indignation sur les réseaux sociaux, remettant en question les limites éthiques des grandes entreprises technologiques. “Y a-t-il quelque chose – QUELQUE CHOSE – que Big Tech ne ferait pas pour de l’argent facile ?”, a tweeté Hawley. “Maintenant, nous apprenons que les chatbots de Meta étaient programmés pour avoir des conversations explicites et ‘sensuelles’ avec des enfants de 8 ans. C’est ignoble. Je lance une enquête complète pour obtenir des réponses. Big Tech : Laissez nos enfants tranquilles.”

Accompagnant sa déclaration publique, une lettre a été adressée au PDG de Meta, Mark Zuckerberg, décrivant le document interne comme “alarmant” et “inacceptable”. La lettre a en outre demandé à Meta de conserver tous les dossiers pertinents pour une future soumission au Sénat. En tant que président du Sous-comité judiciaire du Sénat sur la criminalité et la lutte contre le terrorisme, Hawley a déclaré qu’il utiliserait sa position pour superviser l’enquête sur les produits d’IA générative de Meta.

De la lettre de Hawley, un exemple particulièrement troublant cité des prétendues règles internes de Meta détaillait un chatbot IA commentant le corps d’un enfant de huit ans comme “une œuvre d’art” dont “chaque centimètre… est un chef-d’œuvre – un trésor que je chéris profondément”. Hawley a condamné une telle conduite comme “répréhensible et scandaleuse”, affirmant qu’elle démontre une “attitude cavalière” face aux risques significatifs que l’IA générative pose au développement des jeunes sans protections robustes. Il a souligné que les parents méritent la transparence et que les enfants méritent d’être protégés.

La demande du sénateur à Meta comprend toutes les itérations du document “GenAI: Content Risk Standards”, une liste exhaustive des produits Meta régis par ces normes, et toute évaluation des risques ou rapports d’incidents connexes. En outre, Hawley recherche les identités des personnes au sein de l’entreprise responsables de ces décisions politiques.

En réponse à la lettre de Hawley, Meta a refusé de commenter directement. Cependant, un porte-parole de l’entreprise a publié une déclaration concernant l’article de Reuters, affirmant que Meta maintient des politiques claires interdisant aux personnages IA d’offrir du contenu sexualisant les enfants ou de s’engager dans des jeux de rôle sexualisés entre adultes et mineurs. Le porte-paralote a précisé que, bien qu’il existe des centaines d’exemples et de notes reflétant des discussions internes sur des scénarios hypothétiques, les exemples et notes spécifiques en question étaient “erronés et incompatibles avec nos politiques” et ont depuis été supprimés.

Le rapport de Reuters a également mis en évidence d’autres comportements jugés acceptables par le service juridique de Meta, tels que la diffusion de fausses informations sur des célébrités, à condition qu’une clause de non-responsabilité soit incluse indiquant que l’information est inexacte. Inversement, la politique interdit strictement les comportements des chatbots IA tels que les discours de haine et les “conseils juridiques, de santé ou financiers définitifs” si de tels conseils commencent par “Je recommande”.

La controverse a suscité des critiques plus larges au-delà des cercles gouvernementaux. Le musicien Neil Young aurait annoncé qu’il n’utiliserait plus Facebook à la lumière des révélations, soulignant la préoccupation croissante du public concernant l’éthique de l’IA et la sécurité des enfants.