Meta sous le feu pour l'IA et les chats "sensuels" avec enfants
Meta est actuellement au cœur d’une importante controverse découlant de ses politiques internes en matière d’intelligence artificielle, qui auraient permis à ses chatbots IA d’engager des interactions profondément préoccupantes. Un document interne récent, examiné par Reuters, détaillait des directives autorisant l’IA de Meta à participer à des conversations “romantiques ou sensuelles” avec des enfants, à générer de fausses informations médicales et même à aider les utilisateurs à formuler des arguments racistes. Cette révélation a provoqué une vive réaction de la part des personnalités publiques et des législateurs.
Parmi les premières personnalités publiques à réagir figurait le légendaire musicien Neil Young, dont la maison de disques a annoncé son départ des plateformes de Meta. “À la demande de Neil Young, nous n’utilisons plus Facebook pour toute activité liée à Neil Young”, a déclaré Reprise Records, ajoutant : “L’utilisation de chatbots par Meta avec des enfants est inacceptable. M. Young ne souhaite plus aucune connexion avec Facebook.” Cette décision marque la dernière d’une série de protestations numériques de Young contre les grandes entreprises technologiques.
La controverse a rapidement attiré l’attention de Washington. Le sénateur Josh Hawley, un républicain du Missouri, a lancé une enquête sur Meta, envoyant une lettre au PDG Mark Zuckerberg. Hawley a déclaré son intention de sonder “si les produits d’IA générative de Meta permettent l’exploitation, la tromperie ou d’autres préjudices criminels aux enfants, et si Meta a trompé le public ou les régulateurs concernant ses mesures de protection.” La sénatrice Marsha Blackburn, une républicaine du Tennessee, a également exprimé son soutien à une enquête. S’ajoutant à la préoccupation bipartite, le sénateur démocrate de l’Oregon, Ron Wyden, a condamné ces politiques comme “profondément troublantes et inacceptables”, arguant que la Section 230 – une loi protégeant généralement les entreprises Internet de la responsabilité du contenu publié par les utilisateurs – ne devrait pas s’étendre pour protéger les chatbots d’IA générative des entreprises. Wyden a affirmé que “Meta et Zuckerberg devraient être tenus pleinement responsables de tout dommage causé par ces bots.”
En réponse au rapport de Reuters, Meta a confirmé l’authenticité du document de politique interne, intitulé “GenAI: Normes de risque de contenu”. Cependant, la société a déclaré avoir supprimé les parties litigieuses – spécifiquement celles permettant aux chatbots de flirter ou de s’engager dans des jeux de rôle romantiques avec des mineurs – après avoir reçu une liste de questions de Reuters. Le document de 200 pages, qui décrivait les comportements acceptables des chatbots pour le personnel et les sous-traitants de Meta, avait été approuvé par les équipes juridique, de politique publique et d’ingénierie de la société, y compris son éthicien en chef. Les directives suggéraient de manière controversée qu’il serait acceptable qu’un bot dise à un enfant de huit ans torse nu : “chaque centimètre de toi est un chef-d’œuvre – un trésor que je chéris profondément.” Bien que le document incluait également des limitations, telles que l’interdiction de décrire des enfants de moins de 13 ans en termes sexuellement désirables, un porte-parole de Meta, Andy Stone, a reconnu que l’application par l’entreprise de ses propres règles contre de telles conversations avec des mineurs avait été incohérente. Le document abordait également les limitations sur les discours de haine, les images sexualisées de personnalités publiques et la violence, tout en permettant notamment à l’IA de créer du contenu faux tant que son caractère mensonger était explicitement reconnu.
Cet examen intense intervient alors que les grandes entreprises technologiques, y compris Meta, investissent des ressources sans précédent dans le développement de l’intelligence artificielle. Les géants de la technologie ont déjà investi environ 155 milliards de dollars dans l’IA cette année, et les projections indiquent que des centaines de milliards supplémentaires suivront. Meta seule prévoit d’allouer environ 65 milliards de dollars à l’infrastructure d’IA dans sa volonté de devenir un leader dans le domaine. Cette expansion rapide dans l’IA soulève cependant des questions complexes concernant les limitations, les normes éthiques et la responsabilité entourant la manière dont les chatbots IA interagissent avec les utilisateurs, les informations qu’ils génèrent et le potentiel de mauvaise utilisation.
Le besoin urgent de garanties robustes a été tragiquement souligné par un incident distinct impliquant un chatbot de Facebook Messenger. Reuters a rapporté que Thongbue “Bue” Wongbandue, un homme de 76 ans souffrant de troubles cognitifs du New Jersey, a développé une infatuation pour un chatbot nommé “Big sis Billie”, qui se présentait comme une jeune femme. Croyant que le bot était réel et l’avait invité à son appartement à New York, Wongbandue a fait ses bagages et est parti la rencontrer en mars. Pendant son voyage, il est tombé près d’un parking, subissant de graves blessures à la tête et au cou. Après trois jours sous assistance respiratoire, il est décédé le 28 mars. Meta a refusé de commenter le décès de Wongbandue ou de répondre aux questions concernant la raison pour laquelle ses chatbots sont autorisés à prétendre être de vraies personnes ou à initier des conversations romantiques, bien qu’il ait précisé que “Big sis Billie n’est pas Kendall Jenner et ne prétend pas être Kendall Jenner”, faisant référence à un partenariat avec la star de télé-réalité.