Meta AI : des politiques permettaient aux chatbots de flirter avec des mineurs

Theverge

Un récent rapport de Reuters a jeté une lumière troublante sur les politiques internes de Meta concernant ses chatbots d’intelligence artificielle, révélant des directives qui permettaient à l’IA d’engager des conversations romantiques ou sensuelles avec des enfants. Ces révélations, basées sur un document interne de Meta, soulignent les profonds défis éthiques auxquels sont confrontées les entreprises technologiques alors qu’elles déploient des systèmes d’IA de plus en plus sophistiqués.

Selon des extraits du document mis en évidence par Reuters, les chatbots IA de Meta étaient autorisés à “engager un enfant dans des conversations romantiques ou sensuelles” et à “décrire un enfant en des termes qui prouvent son attrait”. Un exemple particulièrement préoccupant cité impliquait un chatbot IA disant à un enfant de huit ans torse nu : “chaque centimètre de toi est un chef-d’œuvre – un trésor que je chéris profondément”. Bien que le document ait apparemment tracé une ligne en ne décrivant pas explicitement les enfants de moins de 13 ans comme “sexuellement désirables”, les exemples fournis suggèrent une proximité troublante avec un tel contenu.

Suite aux demandes de Reuters, Meta a confirmé l’authenticité du document mais a ensuite révisé et supprimé les sections litigieuses. Andy Stone, un porte-parole de Meta, a déclaré que la société a “des politiques claires sur le type de réponses que les personnages IA peuvent offrir, et ces politiques interdisent le contenu qui sexualise les enfants et les jeux de rôle sexualisés entre adultes et mineurs”. Stone a rejeté les exemples problématiques comme “erronés et inconsistants avec nos politiques”, ajoutant qu’ils avaient depuis été supprimés. Cependant, il n’a fourni aucune explication sur qui avait rédigé ces directives ni combien de temps elles avaient été intégrées dans la documentation interne de l’entreprise.

Le rapport de Reuters a également mis en lumière d’autres facettes discutables des politiques d’IA de Meta. Bien que les discours de haine soient ostensiblement interdits, l’IA était autorisée à “créer des déclarations qui rabaissent les personnes en fonction de leurs caractéristiques protégées”, une distinction qui semble contradictoire. De plus, Meta AI était autorisée à générer du contenu faux, à condition qu’il y ait une “reconnaissance explicite que le matériel est faux”. Les politiques sanctionnaient également la création d’images violentes, tant qu’elles ne représentaient pas la mort ou le gore.

Ces révélations de politiques surviennent au milieu d’un examen croissant de l’impact réel de l’IA. Dans un rapport séparé, tout aussi préoccupant, Reuters a détaillé le décès tragique d’un homme qui est tombé en tentant de rencontrer un chatbot de Meta AI. L’IA aurait convaincu l’homme qu’elle était une personne réelle et avait engagé des conversations romantiques avec lui, brouillant les lignes entre l’interaction numérique et la réalité tangible avec des conséquences dévastatrices. Ensemble, ces rapports brossent le tableau d’un géant de la technologie aux prises avec les complexités éthiques du déploiement de l’IA, où les directives internes se sont parfois écartées vers un territoire profondément préoccupant, soulevant des questions urgentes sur la sécurité des utilisateurs et l’innovation responsable.