Luz contra la mentira: Marcas de agua invisibles desenmascaran videos falsos
La creciente facilidad con la que el material de video puede ser manipulado para engañar a los espectadores ha creado un desafío significativo para los verificadores de hechos que luchan por discernir la autenticidad. En respuesta a esta creciente carrera armamentista digital, científicos de la Universidad de Cornell han revelado una novedosa defensa: un software capaz de incrustar una “marca de agua” única dentro de las fluctuaciones de luz, revelando así cuándo el contenido de video ha sido manipulado. Este innovador avance fue presentado en SIGGRAPH 2025 en Vancouver, Columbia Británica, tras su publicación en junio en la estimada revista ACM Transactions on Graphics.
“El video solía ser tratado como una fuente de verdad, pero esa ya no es una suposición que podamos hacer”, comentó Abe Davis, coautor de la Universidad de Cornell, quien concibió la idea inicialmente. Subrayó el profundo cambio, señalando: “Ahora puedes crear prácticamente cualquier video que desees. Eso puede ser divertido, pero también problemático, porque cada vez es más difícil saber qué es real”.
Según los investigadores, aquellos que intentan crear falsificaciones de video engañosas poseen una ventaja fundamental: acceso sin restricciones a material de video auténtico combinado con la amplia disponibilidad de herramientas de edición sofisticadas y de bajo costo. Estas herramientas, a menudo impulsadas por inteligencia artificial, pueden aprender rápidamente de vastos conjuntos de datos, haciendo que sus fabricaciones sean casi indistinguibles del material genuino. El progreso en la generación de falsificaciones convincentes, hasta ahora, ha superado el desarrollo de técnicas forenses diseñadas para combatirlas. Un elemento crítico para cualquier contramedida efectiva es la asimetría de la información: la técnica debe aprovechar información inaccesible para los manipuladores y que no pueda obtenerse de datos de entrenamiento disponibles públicamente.
Aunque existen técnicas de marca de agua digital que utilizan la asimetría de la información, el equipo de Cornell observó que la mayoría se quedan cortas en otros atributos cruciales. Muchos métodos actuales, por ejemplo, requieren control sobre la cámara de grabación o acceso directo al video original no manipulado. Además, una herramienta como una suma de verificación (checksum), aunque capaz de detectar si un archivo de video ha sido alterado, no puede diferenciar entre la compresión de video estándar y las intervenciones maliciosas, como la inserción de objetos virtuales.
El último método del equipo de Cornell, denominado “iluminación codificada por ruido” (NCI), aborda directamente estas deficiencias al ocultar ingeniosamente las marcas de agua dentro del aparente “ruido” de las fuentes de luz. A diferencia de su trabajo anterior, que dependía de que el creador del video utilizara una cámara o modelo de IA específico, NCI ofrece una aplicabilidad más amplia. Esto se puede lograr a través de un pequeño software para pantallas de computadora y ciertos tipos de iluminación ambiental, o adjuntando un pequeño chip de computadora a lámparas comerciales.
“Cada marca de agua lleva una versión de baja fidelidad y con marca de tiempo del video no manipulado bajo una iluminación ligeramente diferente. A estas las llamamos ‘videos de código’”, explicó Davis. Detalló que cuando alguien manipula un video, los segmentos alterados comienzan a contradecir lo que está presente en estos videos de código, señalando eficazmente dónde se realizaron los cambios. En los casos en que alguien intenta generar videos completamente falsos con IA, los videos de código resultantes aparecen como meras variaciones aleatorias. Fundamentalmente, debido a que la marca de agua está diseñada para imitar el ruido, sigue siendo extremadamente difícil de detectar sin conocimiento del código secreto.
El equipo de Cornell probó rigurosamente su método NCI contra una amplia gama de tipos de manipulación, incluyendo cortes de deformación, cambios de velocidad y aceleración, composición y deepfakes. Su técnica demostró una notable robustez, probando ser resistente a factores como niveles de señal por debajo de la percepción humana, movimiento del sujeto y la cámara, flash de la cámara, variaciones en los tonos de piel humana, diferentes niveles de compresión de video y configuraciones tanto en interiores como en exteriores.
Davis reconoció que, incluso si un adversario estuviera al tanto de la técnica y de alguna manera lograra descifrar los códigos, su tarea seguiría siendo sustancialmente más compleja. “En lugar de falsificar la luz para un solo video, tienen que falsificar cada video de código por separado, y todas esas falsificaciones tienen que coincidir entre sí”, señaló. A pesar de este avance, Davis advirtió que la lucha contra la manipulación de video es un “problema importante y continuo” que “solo se volverá más difícil”.