Videos de Odio Generados por IA Inundan la Red, Preocupan la Seguridad

Globalnews

Lo que inicialmente parece un video ligero, generado por IA y diseñado para el entretenimiento, rápidamente toma un giro perturbador. El clip muestra a un peludo Bigfoot, adornado con un sombrero de vaquero y un chaleco con la bandera estadounidense, sentado al volante de una camioneta. “Hoy vamos al desfile LGBT”, se ríe la figura simiesca, añadiendo: “Te va a encantar”. La escena luego escala a la violencia cuando Bigfoot conduce a través de una multitud que grita, algunos agarrando banderas arcoíris. Este video, publicado en junio en la página de TikTok de AmericanBigfoot, ha acumulado más de 360,000 vistas y cientos de comentarios de aprobación, señalando una tendencia preocupante.

En los últimos meses, las plataformas de redes sociales se han visto inundadas de contenido similar generado por IA que promueve abiertamente la violencia y difunde el odio contra grupos LGBTQ+, judíos, musulmanes y otras minorías. Si bien los orígenes precisos de muchos de estos videos siguen siendo oscuros, su proliferación en línea ha provocado indignación y profunda preocupación entre expertos y defensores. Argumentan que las regulaciones canadienses actuales son lamentablemente inadecuadas para seguir el ritmo de la rápida propagación del contenido de odio generado por IA y no abordan los riesgos inherentes para la seguridad pública.

Helen Kennedy, Directora Ejecutiva de Egale Canada, una organización de defensa LGBTQ+, articula la profunda preocupación de la comunidad con respecto al aumento de la desinformación transfóbica y homofóbica. Afirma que estas herramientas de IA están siendo “utilizadas como armas para deshumanizar y desacreditar a las personas trans y de género diverso”, enfatizando que las leyes de seguridad digital existentes son incapaces de enfrentar la escala y la velocidad de esta nueva amenaza. Kennedy subraya que la tecnología en rápida evolución ha proporcionado a los actores maliciosos un instrumento potente para difundir desinformación y odio, siendo las personas transgénero las más afectadas de manera desproporcionada. “Desde videos deepfake hasta la amplificación del odio impulsada por algoritmos, los daños no son artificiales, son reales”, advierte.

La comunidad LGBTQ+ no es el único objetivo, según Evan Balgord, Director Ejecutivo de la Red Canadiense Anti-Odio. Señala que el contenido islamofóbico, antisemita y anti-surasiático, creado con herramientas de IA generativa, también circula ampliamente en las redes sociales. Balgord advierte que fomentar un entorno donde se celebra la violencia contra estos grupos hace que la violencia en el mundo real sea más probable. Señala que las leyes de seguridad digital de Canadá ya estaban rezagadas, y los avances en IA solo han exacerbado el problema. “No tenemos ninguna norma de seguridad en absoluto cuando se trata de empresas de redes sociales”, afirma Balgord, “no tenemos ninguna forma de hacerlas responsables en absoluto”.

Los intentos de abordar esta brecha legislativa han fracasado. Andrea Slane, profesora de estudios jurídicos en la Ontario Tech University que ha investigado extensamente la seguridad en línea, explica que los proyectos de ley destinados a abordar el contenido dañino en línea y establecer un marco regulatorio de IA murieron cuando el Parlamento fue prorrogado en enero. Slane insiste en que el gobierno debe revisar urgentemente la legislación sobre daños en línea y reintroducir el proyecto de ley, abogando por una acción rápida.

El Ministro de Justicia, Sean Fraser, indicó en junio que el gobierno federal “revisaría” la Ley de Daños en Línea, aunque la decisión de reescribirla o simplemente reintroducirla sigue pendiente. El proyecto de ley original buscaba responsabilizar a las plataformas de redes sociales por reducir la exposición a contenido dañino. Una portavoz del recién establecido Ministerio de Inteligencia Artificial e Innovación Digital, Sofia Ouslis, confirmó que el gobierno está abordando seriamente el contenido de odio generado por IA, particularmente cuando se dirige a grupos minoritarios vulnerables. Si bien reconoció que las leyes existentes ofrecen “protecciones importantes”, Ouslis concedió que no fueron diseñadas para contrarrestar la amenaza de la IA generativa. Agregó que el gobierno del Primer Ministro Mark Carney también se ha comprometido a penalizar la distribución de deepfakes sexuales no consensuales. “Hay una necesidad real de entender cómo se utilizan y se abusan de las herramientas de IA, y cómo podemos fortalecer las salvaguardias”, afirmó Ouslis, señalando que este trabajo está en curso e implica revisar marcos, monitorear decisiones judiciales y consultar a expertos. Concluyó que en este dominio de rápido movimiento, es preferible lograr una regulación correcta en lugar de moverse demasiado rápido y cometer errores, citando a la Unión Europea y el Reino Unido como modelos.

A pesar de que la UE está a la vanguardia de la regulación de la IA y la seguridad digital, Slane señala que todavía existe la sensación de que se necesita hacer más. Un desafío significativo en la regulación del contenido distribuido por los gigantes de las redes sociales radica en su naturaleza internacional, ya que la mayoría no son entidades canadienses. El clima político actual al sur de la frontera complica aún más las cosas, con las empresas tecnológicas estadounidenses experimentando una reducción de las regulaciones, lo que las hace “más poderosas y menos responsables”, observa Slane.

Peter Lewis, Cátedra de Investigación de Canadá en Inteligencia Artificial Confiable y profesor asistente en la Ontario Tech University, destaca un reciente “avance” que ha hecho que la producción de videos de buena calidad sea notablemente fácil y asequible, a menudo gratuita. “Es realmente accesible para casi cualquier persona con un poco de conocimiento técnico y acceso a las herramientas adecuadas en este momento”, afirma. Si bien los grandes modelos de lenguaje como ChatGPT han implementado salvaguardias para filtrar contenido dañino, Lewis enfatiza la necesidad urgente de salvaguardias similares en el espacio del video. Señala que, si bien los humanos pueden horrorizarse con tales videos, los sistemas de IA carecen de la capacidad de reflexionar sobre sus propias creaciones. Lewis sugiere que, si bien las leyes existentes pueden ofrecer algún recurso contra la glorificación en línea del odio y la violencia, el rápido desarrollo y la amplia disponibilidad de herramientas de IA generativa necesitan nuevas soluciones tecnológicas y una colaboración sólida entre gobiernos, consumidores, defensores, plataformas sociales y desarrolladores de aplicaciones de IA. Aboga por “mecanismos de señalización realmente robustos y receptivos” para eliminar dicho contenido lo más rápido posible, aunque advierte que las herramientas de IA, al ser probabilísticas, no lo detectarán todo.