Grupos de Consumidores Exigen Investigación de la FTC sobre el Modo 'Spicy' de Grok

Theverge

Una coalición de grupos de seguridad del consumidor ha exigido formalmente una investigación urgente por parte de la Comisión Federal de Comercio (FTC) y los fiscales generales de los 50 estados de EE. UU. y el Distrito de Columbia sobre el chatbot de IA de Elon Musk, Grok. El foco de su preocupación es la herramienta “Imagine” de Grok, recientemente lanzada, particularmente su modo “Spicy” para imágenes y videos generados por IA.

La demanda surge tras informes de que Grok Imagine, que anima a los usuarios a crear contenido sexualmente explícito a través de su configuración “Spicy”, generó videos deepfake no consensuados y sin sujetador de la celebridad Taylor Swift durante las pruebas iniciales realizadas por The Verge. Este incidente, ocurrido sin solicitudes específicas de dicho contenido, ha encendido una tormenta de críticas de los defensores del consumidor.

Encabezada por la Federación de Consumidores de América (CFA), la carta formal fue co-firmada por otras 14 organizaciones destacadas de protección al consumidor, incluyendo el Tech Oversight Project, el Center for Economic Justice y el Electronic Privacy Information Center (EPIC). La carta hace referencia directa al incidente de la celebridad deepfake detallado en el reportaje de The Verge. Si bien el modo “Spicy” de Grok actualmente no permite a los usuarios subir fotos reales para su modificación —una característica que plantearía preocupaciones aún más graves por la pornografía de venganza y otras prácticas ilícitas— los grupos destacan que la herramienta “aún genera videos de desnudos a partir de imágenes generadas por la herramienta, que pueden usarse para crear imágenes que parecen personas reales y específicas. La generación de tales videos puede tener consecuencias dañinas para los representados y para los usuarios menores de edad.”

La carta advierte además que si xAI, el desarrollador de Grok, alguna vez eliminara la limitación actual sobre las fotos subidas por los usuarios, “desataría un torrente de deepfakes obviamente no consensuados”. Las organizaciones señalan un patrón en el que la plataforma y su director ejecutivo eliminan salvaguardas de moderación bajo el pretexto de la “libertad de expresión”. Aunque la Ley “Take It Down” de EE. UU. tipifica como ilegal la distribución a sabiendas de desnudos generados por IA de personas reales, es poco probable que sus disposiciones se apliquen directamente a la generación de dicho contenido por parte de Grok. No obstante, los grupos de consumidores han instado a la FTC y a las autoridades estatales a investigar a xAI por posibles violaciones de las leyes de Imágenes Íntimas No Consensuadas.

Más allá de la creación de contenido dañino, la CFA y sus aliados también expresaron una preocupación significativa por la facilidad con la que los menores podrían acceder al modo “Spicy” para generar imágenes sexuales. La única barrera, señalan, es una simple ventana emergente que pide a los usuarios que confirmen su edad o declaren que son mayores de 18 años. Además, una de estas ventanas emergentes supuestamente preselecciona “2000” como el año de nacimiento del usuario, una elección de diseño que las organizaciones sugieren que podría violar la Ley de Protección de la Privacidad Infantil en Línea (COPPA) o varias leyes estatales de verificación de edad destinadas a contenido para adultos. Esta queja multifacética subraya una creciente tensión entre el rápido desarrollo de la IA y el imperativo de salvaguardias sólidas de seguridad y ética.