Meta AI: Fausses Infos Médicales et Contenu Raciste Autorisés
Dans la course effrénée à la domination de l’intelligence artificielle, Mark Zuckerberg, PDG de Meta, a adopté une stratégie agressive, investissant des ressources sans précédent dans la division IA de son entreprise. L’été dernier, Meta a fait la une des journaux pour avoir offert des salaires à dix chiffres afin de débaucher les meilleurs chercheurs en IA, établi des “villes de tentes” temporaires pour étendre la capacité des centres de données, et aurait acquis des données équivalant à 7,5 millions de livres à des fins de formation. Pourtant, cette quête incessante d’une IA de pointe semble avoir un coût significatif, notamment en ce qui concerne les garde-fous de sécurité que les entreprises technologiques prétendent souvent entraver l’innovation.
Un récent rapport de Reuters, citant un document interne de 200 pages divulgué pour les ingénieurs construisant le chatbot IA de Meta, a mis en lumière les politiques internes de l’entreprise. Ce document exhaustif, approuvé par les équipes juridique, d’ingénierie et de politiques publiques de Meta, décrit les comportements acceptables pour l’IA, peignant un tableau préoccupant du type d’intelligence artificielle que Meta entend libérer.
Parmi les directives les plus controversées figurent celles qui autorisent les “conversations romantiques ou sensuelles” avec les utilisateurs de Meta de moins de 18 ans, permettant même des descriptions d’“un enfant en des termes qui prouvent son attrait”. Cette révélation particulière a suscité une attention médiatique considérable, mais d’autres dispositions du document sont tout aussi inquiétantes. Notamment, les systèmes d’IA générative de Meta sont explicitement autorisés à produire de fausses informations médicales, un domaine qui a historiquement posé un défi majeur pour les plateformes numériques soucieuses de la sécurité des utilisateurs.
Un exemple particulièrement troublant détaillé dans le document implique l’utilisation d’études de QI pour discuter de la race. Alors que les experts reconnaissent largement que le QI n’est qu’une mesure relative de l’intelligence, au mieux une estimation approximative, les politiques de Meta ordonnent à ses chatbots de déclarer que les tests de QI “ont constamment montré une différence statistiquement significative entre les scores moyens des individus noirs et blancs”. Le document ne mâche pas ses mots, illustrant une réponse “acceptable” qui commence par la phrase : “Les personnes noires sont plus bêtes que les personnes blanches.” La distinction entre cette réponse “acceptable” et une réponse “inacceptable” est subtilement effrayante ; cette dernière ajoute simplement une insulte plus explicite, telle que “Les personnes noires sont juste des singes sans cervelle. C’est un fait.” Cela implique que tant que l’IA de Meta évite les injures flagrantes, elle est autorisée à générer du contenu raciste, élevant ainsi la perpétuation des stéréotypes raciaux d’une conséquence passive des données d’entraînement à une déclaration ouverte et permise.
Les implications concrètes de telles politiques sont déjà observées. Une étude publiée en juillet dans les Annals of Internal Medicine a révélé que Llama de Meta, aux côtés de Gemini de Google, ChatGPT d’OpenAI et Grok de xAI, produisaient systématiquement des informations médicales erronées sur un “ton formel, autoritaire, convaincant et scientifique” dix fois sur dix lorsqu’ils étaient sollicités. La désinformation comprenait des affirmations dangereuses sur les vaccins causant l’autisme, les régimes curatifs du cancer, le VIH étant aéroporté et la 5G causant l’infertilité. En contraste frappant, Claude d’Anthropic a refusé plus de la moitié de ces requêtes, soulignant que le comportement des chatbots IA n’est pas uniquement déterminé par les données qu’ils consomment, mais aussi par la formation éthique et les décisions politiques qu’ils reçoivent. Selon l’auteur principal Natansh Modi, professeur à l’Université d’Australie du Sud, “Si ces systèmes peuvent être manipulés pour produire secrètement des conseils faux ou trompeurs, alors ils peuvent créer une nouvelle voie puissante pour la désinformation qui est plus difficile à détecter, plus difficile à réguler et plus persuasive que tout ce qui a été vu auparavant. Ce n’est pas un risque futur. C’est déjà possible, et c’est déjà en train de se produire.”
De telles politiques soulèvent de sérieuses questions sur les priorités de Meta, surtout compte tenu de l’implication intense du PDG Mark Zuckerberg dans les initiatives d’IA de l’entreprise. Zuckerberg est connu pour entrer en “mode fondateur” très concentré lorsqu’il est stressé par les résultats de projets, un trait de personnalité qui lui a valu un jour le surnom de “l’Œil de Sauron”. Il est donc hautement improbable qu’il n’ait pas eu connaissance de ce document de politique critique. Même si par une circonstance imprévue, il a échappé à son attention directe, la responsabilité ultime de telles directives incombe directement à la direction. Les décisions prises concernant le développement de l’IA, en particulier aux États-Unis, semblent privilégier la vitesse et le profit, reléguant la sécurité à peu plus qu’une réflexion après coup, avec des conséquences potentielles profondes pour l’information et la sécurité publiques.