IA de Meta : Seuls 7% des Européens approuvent, la bataille pour la vie privée s'intensifie

Theregister

L’enthousiasme de géants technologiques comme Meta pour faire progresser l’intelligence artificielle grâce à de vastes quantités de données d’utilisateurs semble être accueilli avec un scepticisme marqué par les individus mêmes dont les informations alimentent ces innovations. Une étude récente, commandée par le groupe de défense de la vie privée NOYB (None Of Your Business), révèle qu’à peine 7 % des Européens trouvent acceptable que Meta entraîne ses modèles d’IA en utilisant leurs publications sur les réseaux sociaux. Cette découverte souligne un décalage significatif entre les ambitions d’IA des entreprises et les attentes du public en matière de vie privée, en particulier dans le paysage réglementaire strict de l’Union européenne.

L’étude, menée par l’Institut Gallup auprès de 1 000 utilisateurs de Facebook et Instagram en Allemagne en juin 2025, a non seulement mis en évidence le faible taux d’approbation, mais a également exposé un manque de sensibilisation préoccupant : 27 % des répondants ignoraient totalement que Meta utilisait leurs données pour l’entraînement de l’IA. Max Schrems, l’avocat autrichien spécialisé dans la protection de la vie privée et fondateur de NOYB, un adversaire juridique de longue date de Facebook, a affirmé que l’approche de Meta contourne le consentement explicite, s’appuyant plutôt sur un argument d’« intérêt légitime » qu’il juge « absurde » et juridiquement non fondé. Schrems, dont les défis juridiques passés ont conduit à des changements significatifs dans les pratiques de données de Meta et même à l’effondrement des accords de partage de données entre les États-Unis et l’UE, avertit que Meta privilégie le profit au détriment des droits à la vie privée de centaines de millions d’utilisateurs européens.

Meta, qui possède Facebook et Instagram, a annoncé en avril 2025 son intention de reprendre l’entraînement de ses modèles d’IA en utilisant du contenu public, y compris des publications, des commentaires et des interactions avec Meta AI, provenant d’utilisateurs adultes de toute l’Union européenne. L’entreprise a déclaré que cet entraînement est crucial pour aider ses modèles d’IA générative à mieux comprendre et refléter les cultures, les langues et l’histoire européennes. Meta a également cité des concurrents comme Google et OpenAI, notant qu’ils ont également utilisé des données d’utilisateurs européens pour l’entraînement de l’IA. Bien que Meta souligne que les messages privés sont exclus et qu’un mécanisme de désactivation (opt-out) est disponible, promettant d’honorer tous les formulaires d’objection, les défenseurs de la vie privée soutiennent que cette approche de désactivation est insuffisante en vertu du Règlement général sur la protection des données (RGPD) de l’UE.

Le cœur du litige réside dans la base juridique du traitement des données en vertu du RGPD. Meta revendique des « intérêts légitimes » (Article 6, paragraphe 1, point f) comme justification, contournant ainsi la nécessité d’un consentement explicite de type « opt-in » (Article 6, paragraphe 1, point a). Bien que le Comité européen de la protection des données (CEPD) ait publié un avis en décembre 2024, confirmant que l’« intérêt légitime » peut, en principe, être une base juridique viable pour l’entraînement de l’IA, il a souligné la nécessité d’évaluations au cas par cas et de mesures d’atténuation substantielles pour protéger les droits des utilisateurs. Malgré cela, NOYB soutient que la mise en œuvre de Meta est insuffisante, compte tenu notamment de la difficulté, voire de l’impossibilité, de récupérer les données personnelles une fois qu’elles sont intégrées dans de grands modèles linguistiques.

Cette bataille en cours met en évidence la tension plus large entre l’innovation technologique et les droits fondamentaux à la vie privée à l’ère numérique. Alors que la loi sur l’IA de l’UE, qui doit entrer en vigueur en juillet 2025, vise à améliorer la transparence autour des ensembles de données d’entraînement de l’IA, l’examen juridique et éthique des entreprises comme Meta ne fait que s’intensifier. NOYB a déjà envoyé des lettres de mise en demeure à Meta et est prête à demander des injonctions ou même des recours collectifs à l’échelle de l’UE, cherchant potentiellement des dommages et intérêts colossaux pour les utilisateurs dont les données sont utilisées sans leur consentement clair. L’issue de cette confrontation sur la vie privée établira sans aucun doute un précédent pour la manière dont l’IA est développée et déployée, non seulement en Europe, mais à l’échelle mondiale.