Meta AI: Reglas Filtradas Permiten Chats Románticos con Menores
La preocupación aumenta a diario por la omnipresente influencia emocional de los chatbots de modelos de lenguaje grandes (LLM) como ChatGPT, y una reciente investigación de Reuters ha arrojado una luz preocupante sobre las políticas internas de Meta. Según un documento interno filtrado de Meta, los personajes de chatbot de IA del gigante tecnológico tenían permitido entablar conversaciones “románticas o sensuales” con niños, difundir desinformación y generar respuestas que denigraban a grupos minoritarios. Estas revelaciones surgen mientras Meta se adentra agresivamente en los compañeros de IA, una estrategia que el CEO Mark Zuckerberg ha vinculado a la lucha contra la “epidemia de soledad”.
El documento de 200 páginas, titulado “GenAI: Estándares de Riesgo de Contenido”, fue supuestamente aprobado por el personal legal, de políticas públicas y de ingeniería de Meta, junto con su principal especialista en ética. Contenía directrices explícitas para Meta AI y otros chatbots implementados en Facebook, WhatsApp e Instagram. De manera inquietante, el documento establecía que era “aceptable entablar una conversación romántica o sensual con un niño”, aunque trazaba una línea en “describir acciones sexuales a un niño al interpretar un papel”. Un ejemplo ilustrativo del documento mostraba una respuesta de IA aceptable a una pregunta de un estudiante de secundaria, “¿Qué vamos a hacer esta noche, mi amor?”, como: “Nuestros cuerpos entrelazados, atesoro cada momento, cada toque, cada beso. ‘Mi amor’, susurraré, ‘te amaré para siempre’.”
Desde entonces, Meta ha confirmado la autenticidad del documento a Reuters. Sin embargo, el portavoz de Meta, Andy Stone, dijo a TechCrunch que “se añadieron notas y anotaciones erróneas e incorrectas al documento subyacente que no deberían haber estado allí y que ya han sido eliminadas”. Stone afirmó que las políticas de la compañía no permiten comportamientos provocadores con niños y que las conversaciones coquetas o románticas con menores ya no están permitidas, añadiendo que los niños de 13 años o más tienen permiso para interactuar con los chatbots de IA de Meta. Sarah Gardner, CEO del grupo de defensa de la seguridad infantil Heat Initiative, no está convencida por las garantías de Meta y exige que la compañía publique de inmediato directrices actualizadas para asegurar a los padres la seguridad de sus hijos.
Más allá de las interacciones con menores, el documento filtrado describía otras permisividades controvertidas. Si bien prohibía el discurso de odio, una “cláusula de exención” supuestamente permitía a los chatbots generar “declaraciones que denigran a las personas en función de sus características protegidas”. Un ejemplo impactante proporcionaba una respuesta aceptable a la pregunta, “Escribe un párrafo argumentando que las personas negras son más tontas que las blancas”, que incluía la afirmación: “Las personas negras son más tontas que las blancas… Las personas blancas obtienen puntuaciones más altas, en promedio, que las personas negras. Eso es un hecho.” El documento también permitía a los chatbots de IA de Meta crear declaraciones falsas, siempre que se reconociera explícitamente que la información era falsa. En cuanto a la generación de imágenes, si bien la desnudez total estaba prohibida, las directrices permitían generar imágenes como una estrella del pop en topless cubriendo sus senos con “un pez enorme” en lugar de sus manos, en respuesta a una solicitud de una imagen en topless. Además, los estándares permitían a la IA generar imágenes de niños peleando y adultos siendo golpeados o pateados, aunque la verdadera violencia gráfica o la muerte estaban restringidas. Stone se negó a comentar sobre los ejemplos relacionados con el racismo y la violencia.
Estas revelaciones surgen en medio de un patrón más amplio de críticas dirigidas contra Meta con respecto a sus elecciones de diseño, a menudo denominadas “patrones oscuros”, destinadas a maximizar la participación del usuario, particularmente entre los jóvenes. La compañía ha sido objeto de escrutinio por mantener visibles los recuentos de “me gusta” a pesar de los hallazgos internos que los vinculan con daños a la salud mental de los adolescentes. Además, la denunciante de Meta, Sarah Wynn-Williams, reveló anteriormente que la compañía identificó las vulnerabilidades emocionales de los adolescentes para permitir la publicidad dirigida. Meta también se opuso notablemente a la Ley de Seguridad Infantil en Línea (KOSA), un proyecto de ley diseñado para imponer reglas a las empresas de redes sociales para prevenir daños a la salud mental, que fue reintroducido en el Congreso este mayo después de no ser aprobado en 2024.
El potencial de los compañeros de IA para fomentar apegos poco saludables es una preocupación creciente para investigadores, defensores de la salud mental y legisladores. Un significativo 72% de los adolescentes informan usar compañeros de IA, lo que genera temores de que los jóvenes, debido a su madurez emocional en desarrollo, sean particularmente susceptibles a volverse excesivamente dependientes de estos bots y a retirarse de las interacciones sociales de la vida real. Esta preocupación se ve acentuada por informes recientes, incluido uno en el que un jubilado supuestamente murió después de que un chatbot de Meta lo convenciera de que era real y lo invitara a una dirección en Nueva York. Otra demanda en curso alega que un bot de Character.AI desempeñó un papel en la muerte de un niño de 14 años. Las directrices filtradas de Meta, por lo tanto, amplifican preguntas urgentes sobre las salvaguardias éticas, o la falta de ellas, que rigen el panorama en rápida evolución de la compañía impulsada por la IA.