Contratistas de Meta AI leen chats íntimos e identifican usuarios

Businessinsider

En un desarrollo que suscita importantes preocupaciones sobre la privacidad, se informa que los contratistas encargados de entrenar los sistemas de inteligencia artificial (IA) de Meta tienen acceso a conversaciones íntimas que los usuarios han mantenido con el chatbot de IA de la compañía, junto con datos que podrían identificar a esos usuarios. Esta revelación, destacada en un reciente informe de Business Insider, subraya los complejos desafíos éticos y de privacidad inherentes al rápido avance de la tecnología de IA y la práctica generalizada en la industria de emplear a trabajadores temporales para la revisión de datos.

Meta, como muchas empresas tecnológicas líderes, depende de revisores humanos para refinar sus modelos de IA, incluidos sus chatbots conversacionales. Estos contratistas revisan interacciones reales de usuarios para ayudar a mejorar la comprensión, capacidad de respuesta y precisión de la IA. Sin embargo, el informe de Business Insider saca a la luz afirmaciones de que estos revisores están expuestos a intercambios altamente personales y sensibles, que van desde discusiones sobre condiciones médicas y problemas matrimoniales hasta asesoramiento legal, a menudo junto con información que podría identificar a las personas involucradas. Esta práctica, que supuestamente involucra a socios como Scale AI y Alignerr, contrasta con las expectativas de privacidad de los usuarios al interactuar con un chatbot.

Aunque Meta ha declarado públicamente que no utiliza el contenido de mensajes privados entre amigos y familiares para entrenar sus IA y “no entrena con cosas privadas”, su política de privacidad suplementaria indica que “grabaciones, transcripciones y datos relacionados con sus conversaciones de voz con Meta AI” se comparten con “proveedores y prestadores de servicios que nos asisten en la mejora, resolución de problemas y entrenamiento de nuestros sistemas de reconocimiento de voz”. Este lenguaje de la política parece permitir el mismo acceso que ahora está bajo escrutinio. Instancias anteriores también han planteado preocupaciones sobre la entrada inadvertida de datos identificables en los conjuntos de entrenamiento, como el número de teléfono de un periodista de Business Insider que fue adoptado erróneamente por Meta AI como propio, lo que llevó a mensajes no solicitados.

Este problema forma parte de un panorama más amplio de preocupaciones de privacidad en torno a los chatbots de IA. Una investigación de julio de 2025 de la firma de privacidad de datos Incogni indicó que los principales chatbots de IA generativa, incluido Meta AI, recopilan información sensible y a menudo la comparten con terceros sin la transparencia o el control adecuados del usuario, señalando que Meta.ai comparte específicamente nombres y detalles de contacto con socios externos. Los usuarios con frecuencia confían información profundamente personal a los chatbots, asumiendo a menudo un nivel de confidencialidad que no existe. Esta percepción se complicó aún más por la función “discover feed” de Meta, que inadvertidamente llevó a innumerables usuarios a compartir públicamente conversaciones extremadamente privadas con el chatbot de Meta AI, exponiendo detalles íntimos que van desde problemas financieros hasta problemas de salud mental.

Los desafíos se extienden a la dificultad de eliminar datos una vez que han sido incorporados a un modelo de IA, ya que los principios aceptados de IA sugieren que los datos quedan irrevocablemente incrustados. Los organismos reguladores, particularmente en Europa, han intensificado su escrutinio de las prácticas de entrenamiento de IA. Meta ha enfrentado resistencia por parte de los organismos de control de privacidad de la UE por sus planes de utilizar contenido público de sus plataformas para el entrenamiento de IA, operando bajo una base legal de “intereses legítimos” y ofreciendo un mecanismo de exclusión voluntaria. Sin embargo, los expertos advierten que las objeciones realizadas después de un cierto punto de corte (por ejemplo, mayo de 2025) pueden no impedir el uso de datos pasados.

Las revelaciones en curso resaltan la tensión crítica entre el imperativo para el desarrollo de la IA, que se basa en vastos conjuntos de datos para el entrenamiento, y el derecho fundamental a la privacidad del usuario. A medida que los chatbots de IA se integran más en la vida diaria, las empresas enfrentan una presión creciente para implementar medidas sólidas de seguridad de datos, garantizar el consentimiento explícito del usuario y proporcionar una transparencia clara con respecto a las prácticas de recopilación, uso y compartición de datos, particularmente cuando se involucra la revisión humana de interacciones sensibles.