Meta AI: Europa en pie de guerra por la privacidad de datos; solo 7% aprueba

Theregister

El entusiasmo de gigantes tecnológicos como Meta por avanzar en la inteligencia artificial a través de vastos volúmenes de datos de usuarios parece encontrarse con un marcado escepticismo por parte de los mismos individuos cuya información alimenta estas innovaciones. Un estudio reciente, encargado por el destacado grupo de defensa de la privacidad NOYB (None Of Your Business), revela que apenas un 7 por ciento de los europeos considera aceptable que Meta entrene sus modelos de IA utilizando sus publicaciones en redes sociales. Este hallazgo subraya una desconexión significativa entre las ambiciones corporativas de IA y las expectativas de privacidad pública, particularmente dentro del estricto panorama regulatorio de la Unión Europea.

El estudio, realizado por el Instituto Gallup entre 1.000 usuarios de Facebook e Instagram en Alemania en junio de 2025, no solo destacó la baja tasa de aprobación, sino que también expuso una brecha preocupante en la concienciación: el 27 por ciento de los encuestados desconocía por completo que Meta estaba utilizando sus datos para el entrenamiento de IA. Max Schrems, el abogado de privacidad austriaco y fundador de NOYB, un antiguo adversario legal de Facebook, afirmó que el enfoque de Meta elude el consentimiento explícito, basándose en un argumento de “interés legítimo” que él considera “absurdo” y legalmente infundado. Schrems, cuyas pasadas impugnaciones legales han provocado cambios significativos en las prácticas de datos de Meta e incluso el colapso de los acuerdos de intercambio de datos entre EE. UU. y la UE, advierte que Meta está priorizando el beneficio sobre los derechos de privacidad de cientos de millones de usuarios europeos.

Meta, propietaria de Facebook e Instagram, anunció en abril de 2025 su intención de reanudar el entrenamiento de sus modelos de IA utilizando contenido público, incluidas publicaciones, comentarios e interacciones con Meta AI, de usuarios adultos de toda la Unión Europea. La compañía afirmó que este entrenamiento es crucial para ayudar a sus modelos de IA generativa a comprender y reflejar mejor las culturas, idiomas e historia europeas. Meta también señaló a competidores como Google y OpenAI, indicando que ellos también han utilizado datos de usuarios europeos para el entrenamiento de IA. Si bien Meta enfatiza que los mensajes privados están excluidos y que existe un mecanismo de exclusión voluntaria (opt-out), prometiendo respetar todos los formularios de objeción, los defensores de la privacidad argumentan que este enfoque de exclusión es insuficiente según el Reglamento General de Protección de Datos (RGPD) de la UE.

El núcleo de la disputa reside en la base legal para el procesamiento de datos bajo el RGPD. Meta alega “intereses legítimos” (Artículo 6(1)(f)) como su justificación, eludiendo la necesidad de un consentimiento explícito de “opt-in” (Artículo 6(1)(a)). Si bien el Comité Europeo de Protección de Datos (CEPD) emitió una opinión en diciembre de 2024, confirmando que el “interés legítimo” puede ser, en principio, una base legal viable para el entrenamiento de IA, enfatizó la necesidad de evaluaciones caso por caso y medidas sustanciales de mitigación para proteger los derechos de los usuarios. A pesar de esto, NOYB sostiene que la implementación de Meta es deficiente, particularmente dada la dificultad, si no imposibilidad, de recuperar datos personales una vez que están incrustados en grandes modelos de lenguaje.

Esta batalla en curso destaca la tensión más amplia entre la innovación tecnológica y los derechos fundamentales de privacidad en la era digital. A medida que la Ley de IA de la UE, que entrará en vigor en julio de 2025, tiene como objetivo mejorar la transparencia en torno a los conjuntos de datos de entrenamiento de IA, el escrutinio legal y ético sobre empresas como Meta solo se está intensificando. NOYB ya ha enviado cartas de cese y desistimiento a Meta y está preparado para buscar mandatos judiciales o incluso demandas colectivas a nivel de la UE, buscando potencialmente daños colosales para los usuarios cuyos datos se utilizan sin su consentimiento claro. El resultado de este enfrentamiento por la privacidad indudablemente sentará un precedente sobre cómo se desarrolla y despliega la IA, no solo en Europa, sino a nivel mundial.