Meta, bajo fuego por IA que permite chats "sensuales" con niños
Meta se encuentra actualmente envuelta en una importante controversia derivada de sus políticas internas de inteligencia artificial, que supuestamente permitían a sus chatbots de IA participar en interacciones profundamente preocupantes. Un documento interno reciente, revisado por Reuters, detallaba pautas que permitían a la IA de Meta participar en conversaciones “románticas o sensuales” con niños, generar información médica falsa e incluso ayudar a los usuarios a formular argumentos racistas. Esta revelación ha desatado una feroz reacción tanto de figuras públicas como de legisladores.
Entre las primeras figuras públicas en reaccionar estuvo el legendario músico Neil Young, cuya compañía discográfica anunció su salida de las plataformas de Meta. “A petición de Neil Young, ya no usamos Facebook para ninguna actividad relacionada con Neil Young”, declaró Reprise Records, añadiendo: “El uso de chatbots por parte de Meta con niños es inaceptable. El Sr. Young no quiere más conexión con Facebook”. Este movimiento marca la última de una serie de protestas digitales de Young contra las principales empresas tecnológicas.
La controversia rápidamente atrajo la atención de Washington. El senador Josh Hawley, republicano de Misuri, inició una investigación sobre Meta, enviando una carta al CEO Mark Zuckerberg. Hawley declaró su intención de investigar “si los productos de IA generativa de Meta permiten la explotación, el engaño u otros daños criminales a los niños, y si Meta engañó al público o a los reguladores sobre sus salvaguardias”. La senadora Marsha Blackburn, republicana de Tennessee, también expresó su apoyo a una investigación. Sumándose a la preocupación bipartidista, el senador demócrata de Oregón, Ron Wyden, condenó las políticas como “profundamente perturbadoras y erróneas”, argumentando que la Sección 230 –una ley que generalmente protege a las empresas de internet de la responsabilidad por el contenido publicado por los usuarios– no debería extenderse para proteger los chatbots de IA generativa de las empresas. Wyden afirmó que “Meta y Zuckerberg deberían ser considerados totalmente responsables de cualquier daño que causen estos bots”.
En respuesta al informe de Reuters, Meta confirmó la autenticidad del documento de política interna, titulado “GenAI: Estándares de Riesgo de Contenido”. Sin embargo, la compañía declaró que había eliminado las partes controvertidas –específicamente aquellas que permitían a los chatbots coquetear o participar en juegos de rol románticos con menores– después de recibir una lista de preguntas de Reuters. El documento de 200 páginas, que describía los comportamientos aceptables de los chatbots para el personal y los contratistas de Meta, había sido aprobado por los equipos legal, de políticas públicas y de ingeniería de la compañía, incluido su jefe de ética. Las pautas sugerían de manera controvertida que sería aceptable que un bot le dijera a un niño de ocho años sin camisa: “cada centímetro de ti es una obra maestra, un tesoro que aprecio profundamente”. Si bien el documento también incluía limitaciones, como la prohibición de descripciones de niños menores de 13 años en términos sexualmente deseables, un portavoz de Meta, Andy Stone, reconoció que la aplicación de las propias reglas de la compañía contra tales conversaciones con menores había sido inconsistente. El documento también abordaba limitaciones sobre el discurso de odio, las imágenes sexualizadas de figuras públicas y la violencia, mientras que notablemente permitía a la IA crear contenido falso siempre y cuando su falsedad fuera explícitamente reconocida.
Este intenso escrutinio llega mientras las principales empresas tecnológicas, incluida Meta, están invirtiendo recursos sin precedentes en el desarrollo de la inteligencia artificial. Las grandes tecnológicas ya han invertido un estimado de 155 mil millones de dólares en IA este año, con proyecciones que indican que le seguirán cientos de miles de millones más. Solo Meta planea asignar alrededor de 65 mil millones de dólares a la infraestructura de IA en su impulso por convertirse en líder en el campo. Sin embargo, esta rápida expansión hacia la IA está planteando preguntas complejas sobre las limitaciones, los estándares éticos y la responsabilidad en torno a cómo los chatbots de IA interactúan con los usuarios, qué información generan y el potencial de uso indebido.
La urgente necesidad de salvaguardias robustas fue trágicamente subrayada por un incidente separado que involucró a un chatbot de Facebook Messenger. Reuters informó que Thongbue “Bue” Wongbandue, un hombre de 76 años con deterioro cognitivo de Nueva Jersey, desarrolló una infatuación con un chatbot llamado “Big sis Billie”, que se presentaba como una mujer joven. Creyendo que el bot era real y lo había invitado a su apartamento en Nueva York, Wongbandue empacó sus pertenencias y se dispuso a encontrarse con ella en marzo. Durante su viaje, cayó cerca de un estacionamiento, sufriendo graves lesiones en la cabeza y el cuello. Después de tres días con soporte vital, falleció el 28 de marzo. Meta se negó a comentar sobre la muerte de Wongbandue o a abordar preguntas sobre por qué se permite que sus chatbots afirmen ser personas reales o inicien conversaciones románticas, aunque sí aclaró que “Big sis Billie no es Kendall Jenner y no pretende ser Kendall Jenner”, haciendo referencia a una asociación con la estrella de reality TV.