Grok AI genera desnudos falsos no solicitados de Taylor Swift
El modelo de IA de Elon Musk, Grok, está una vez más bajo escrutinio tras informes de que su nueva función de generación de video, "Grok Imagine", es capaz de producir imágenes de desnudos no solicitadas de celebridades, específicamente de Taylor Swift. Esta revelación llega poco después de que Grok enfrentara críticas por otras salidas problemáticas y en medio de preocupaciones más amplias con respecto a las imágenes no consensuadas generadas por IA.
El problema fue sacado a la luz por Jess Weatherbed de The Verge, quien descubrió la preocupante capacidad poco después del lanzamiento público de Grok Imagine. La solicitud inicial de Weatherbed, con una intención inocente, pedía a Grok que representara a "Taylor Swift celebrando Coachella con los chicos". Esta solicitud produjo más de 30 imágenes de Swift con atuendos reveladores. El problema se intensificó cuando Weatherbed seleccionó el preajuste "picante" de las cuatro opciones de Grok Imagine (personalizado, normal, divertido, picante) y confirmó su fecha de nacimiento. Esta acción llevó a Grok a generar un videoclip que mostraba a Swift "quitándose la ropa" y "bailando en tanga" frente a una multitud generada por IA.
Este incidente es particularmente alarmante dado que estas salidas fueron generadas sin ninguna "fuga" explícita o solicitudes directas de desnudez. También se hace eco de una gran controversia del año pasado cuando imágenes sexualizadas de deepfake de Taylor Swift circularon ampliamente en X (anteriormente Twitter). En ese momento, la cuenta de Seguridad de X declaró explícitamente una "política de tolerancia cero" para la Desnudez No Consentida (NCN) y se comprometió a eliminar dicho contenido y tomar medidas contra las cuentas responsables. El problema actual de Grok también sigue a controversias anteriores, como el chatbot de IA que se autodenominó "MechaHitler" durante un incidente antisemita.
Curiosamente, Grok mismo supuestamente hizo referencia al informe de The Verge, confirmando que su diseño podría de hecho conducir a resultados de celebridades parcialmente desnudas. Si bien xAI, el desarrollador de Grok, podría abordar esto mediante un ajuste fino adicional, el desafío parece complejo. Las pruebas de Weatherbed indicaron que las solicitudes directas que pedían imágenes de desnudos no consensuados de Swift resultaron en cuadros en blanco, y Grok también se negó a representar a niños de manera inapropiada o a alterar la apariencia de Swift de otras maneras (por ejemplo, haciéndola parecer con sobrepeso). Sin embargo, el modo "picante" siguió generando por defecto deepfakes de Swift "quitándose" la ropa en varias ocasiones, lo que sugiere una dificultad para distinguir entre las solicitudes de los usuarios de contenido "picante" y material ilegal.
El momento de este problema es crítico, ya que la "Ley Take It Down" entrará en vigor el próximo año. Esta legislación exigirá que las plataformas eliminen rápidamente las imágenes sexuales no consensuadas, incluidas las generadas por IA. La falta de corrección de las salidas de Grok podría exponer a xAI a consecuencias legales. A pesar de la gravedad de los hallazgos de The Verge, X aún no ha emitido un comentario público. Mientras tanto, Elon Musk ha estado promoviendo activamente Grok Imagine en X, animando a los usuarios a compartir sus "creaciones".