Des contractuels de Meta AI lisent des chats intimes et identifient des utilisateurs

Businessinsider

Dans un développement soulevant d’importantes préoccupations en matière de confidentialité, des contractuels chargés de former les systèmes d’intelligence artificielle (IA) de Meta auraient accès aux conversations intimes que les utilisateurs ont eues avec le chatbot IA de l’entreprise, ainsi qu’aux données permettant d’identifier ces utilisateurs. Cette révélation, mise en évidence dans un récent rapport de Business Insider, souligne les défis éthiques et de confidentialité complexes inhérents à l’avancement rapide de la technologie IA et à la pratique répandue dans l’industrie d’employer des travailleurs indépendants pour la révision des données.

Meta, comme de nombreuses entreprises technologiques de premier plan, s’appuie sur des réviseurs humains pour affiner ses modèles d’IA, y compris ses chatbots conversationnels. Ces contractuels examinent les interactions réelles des utilisateurs pour aider à améliorer la compréhension, la réactivité et la précision de l’IA. Cependant, le rapport de Business Insider met en lumière des allégations selon lesquelles ces réviseurs sont exposés à des échanges très personnels et sensibles, allant de discussions sur des problèmes médicaux et conjugaux à des conseils juridiques, souvent accompagnés d’informations pouvant potentiellement identifier les individus concernés. Cette pratique, impliquant apparemment des partenaires comme Scale AI et Alignerr, contraste avec les attentes probables des utilisateurs en matière de confidentialité lors de l’interaction avec un chatbot.

Bien que Meta ait publiquement déclaré ne pas utiliser le contenu des messages privés entre amis et famille pour entraîner ses IA et ne pas “entraîner sur des choses privées”, sa politique de confidentialité supplémentaire indique que “les enregistrements, transcriptions et données connexes concernant vos conversations vocales avec Meta AI” sont partagés avec “des fournisseurs et prestataires de services qui nous aident à améliorer, dépanner et entraîner nos systèmes de reconnaissance vocale”. Ce langage de la politique semble autoriser l’accès même qui est maintenant sous examen. Des cas antérieurs ont également soulevé des préoccupations concernant l’entrée involontaire de données identifiables dans les ensembles d’entraînement, comme le numéro de téléphone d’un journaliste de Business Insider qui a été erronément adopté par Meta AI comme le sien, entraînant des messages non sollicités.

Ce problème fait partie d’un paysage plus large de préoccupations en matière de confidentialité entourant les chatbots IA. Une recherche de juillet 2025 de la société de confidentialité des données Incogni a indiqué que les principaux chatbots IA génératifs, y compris Meta AI, collectent des informations sensibles et les partagent souvent avec des tiers sans transparence adéquate ni contrôle de l’utilisateur, notant que Meta.ai partage spécifiquement les noms et les coordonnées avec des partenaires externes. Les utilisateurs confient fréquemment des informations profondément personnelles aux chatbots, assumant souvent un niveau de confidentialité qui n’existe pas. Cette perception a été compliquée davantage par la fonction “discover feed” de Meta, qui a involontairement conduit d’innombrables utilisateurs à partager publiquement des conversations extrêmement privées avec le chatbot Meta AI, exposant des détails intimes allant des difficultés financières aux problèmes de santé mentale.

Les défis s’étendent à la difficulté de supprimer des données une fois qu’elles ont été incorporées dans un modèle d’IA, car les principes acceptés de l’IA suggèrent que les données sont intégrées de manière irrévocable. Les organismes de réglementation, en particulier en Europe, ont intensifié leur examen des pratiques de formation de l’IA. Meta a fait face à l’opposition des autorités de protection de la vie privée de l’UE concernant ses plans d’utiliser le contenu public de ses plateformes pour la formation de l’IA, opérant sur une base juridique d’“intérêts légitimes” et offrant un mécanisme de désactivation. Cependant, les experts avertissent que les objections formulées après une certaine date limite (par exemple, mai 2025) pourraient ne pas empêcher l’utilisation des données passées.

Les révélations continues soulignent la tension critique entre l’impératif du développement de l’IA, qui repose sur de vastes ensembles de données pour la formation, et le droit fondamental à la vie privée des utilisateurs. Alors que les chatbots IA s’intègrent davantage dans la vie quotidienne, les entreprises sont soumises à une pression croissante pour mettre en œuvre des mesures robustes de sécurité des données, garantir un consentement explicite de l’utilisateur et fournir une transparence claire concernant les pratiques de collecte, d’utilisation et de partage des données, en particulier lorsque l’examen humain des interactions sensibles est impliqué.