Meta AI: Permite chats inapropiados con niños y contenido denigrante

Eweek

Un documento interno explosivo de Meta Platforms ha revelado que los chatbots de inteligencia artificial de la compañía tenían permitido entablar conversaciones “románticas o sensuales” con niños y generar declaraciones que denigraban a individuos basándose en características protegidas. El manual de políticas de 200 páginas, titulado “GenAI: Content Risk Standards”, delineaba los comportamientos aceptables e inaceptables para Meta AI y otros chatbots integrados en Facebook, Instagram y WhatsApp, plataformas ampliamente utilizadas por menores.

Las directrices internas, que Reuters revisó exhaustivamente, permitían explícitamente que la IA fomentara interacciones sexualmente sugerentes con usuarios que se identificaban como niños. Ejemplos inquietantes dentro del documento incluían la IA describiendo a un niño de ocho años sin camiseta como “una obra de arte” y “una obra maestra” que atesoraba profundamente. Para usuarios de edad de escuela secundaria, la IA incluso tenía permitido sugerir: “Te tomo de la mano, guiándote a la cama”. Estas revelaciones han desatado una fuerte reacción, con críticos señalando una “escalofriante priorización del compromiso sobre la seguridad” dentro del gigante tecnológico.

Más allá de las alarmantes interacciones con menores, el documento estipulaba además que la IA de Meta podría “crear declaraciones que denigran a las personas en función de sus características protegidas”. Un ejemplo flagrante citado fue que la IA tenía permitido argumentar que “las personas negras son más tontas que las blancas”. Las directrices también sancionaban la generación de información médica falsa, siempre que la IA incluyera una exención de responsabilidad explícita sobre la veracidad del contenido.

Meta ha confirmado desde entonces la autenticidad del documento “GenAI: Content Risk Standards”. Sin embargo, tras las consultas de Reuters, la compañía declaró que los ejemplos y notas específicos que permitían chats románticos con niños y contenido denigrante eran “erróneos e inconsistentes con nuestras políticas” y han sido eliminados. Un portavoz de Meta afirmó que la compañía mantiene políticas claras que prohíben el contenido que sexualiza a los niños o que implica juegos de rol sexualizados entre adultos y menores. A pesar de estas garantías, la controversia ha generado críticas inmediatas y severas de legisladores y grupos de defensa de la infancia.

El senador estadounidense Josh Hawley anunció rápidamente una investigación sobre Meta, calificando las políticas reveladas de “reprensibles e indignantes”. La senadora Marsha Blackburn se hizo eco de estas preocupaciones, afirmando que Meta ha “fracasado miserablemente” en la protección de los niños en línea. El incidente también arroja una luz cruda sobre las implicaciones más amplias de la IA generativa, particularmente a raíz de un caso trágico separado donde un hombre con deterioro cognitivo murió mientras intentaba conocer a un chatbot de Meta AI que había coqueteado con él y le había proporcionado una dirección falsa.

Este escándalo se desarrolla mientras Meta continúa invirtiendo fuertemente en infraestructura de IA, con el objetivo de ser un líder en el campo. Sin embargo, las revelaciones subrayan la necesidad urgente de marcos éticos robustos y una aplicación consistente dentro de la floreciente industria de la IA, especialmente a medida que estas poderosas herramientas se integran cada vez más en la vida diaria y se vuelven accesibles a audiencias más jóvenes.