Cornell: Licht-Wasserzeichen entlarven Videofälschungen

Arstechnica

Die zunehmende Leichtigkeit, mit der Videomaterial manipuliert werden kann, um Zuschauer zu täuschen, hat eine erhebliche Herausforderung für Faktenprüfer geschaffen, die Schwierigkeiten haben, die Authentizität zu erkennen. Als Reaktion auf dieses wachsende digitale Wettrüsten haben Wissenschaftler der Cornell University eine neuartige Verteidigung enthüllt: Software, die in der Lage ist, ein einzigartiges „Wasserzeichen“ in Lichtschwankungen einzubetten, wodurch offengelegt wird, wann Videoinhalte manipuliert wurden. Dieser innovative Durchbruch wurde auf der SIGGRAPH 2025 in Vancouver, British Columbia, vorgestellt, nachdem er im Juni in der angesehenen Fachzeitschrift ACM Transactions on Graphics veröffentlicht worden war.

„Video wurde früher als Quelle der Wahrheit behandelt, aber das ist keine Annahme mehr, die wir treffen können“, bemerkte Abe Davis, ein Co-Autor der Cornell University, der die Idee ursprünglich konzipierte. Er unterstrich die tiefgreifende Veränderung und stellte fest: „Jetzt kann man so ziemlich jedes Video erstellen, das man möchte. Das kann Spaß machen, aber auch problematisch sein, denn es wird nur noch schwieriger zu erkennen, was echt ist.“

Laut den Forschern besitzen diejenigen, die täuschende Videofälschungen erstellen wollen, einen grundlegenden Vorteil: uneingeschränkten Zugang zu authentischem Videomaterial in Kombination mit der weit verbreiteten Verfügbarkeit hochentwickelter, kostengünstiger Bearbeitungswerkzeuge. Diese Werkzeuge, oft durch künstliche Intelligenz angetrieben, können schnell aus riesigen Datensätzen lernen, wodurch ihre Fälschungen von echtem Material nahezu nicht zu unterscheiden sind. Der Fortschritt bei der Erzeugung überzeugender Fälschungen hat bis jetzt die Entwicklung forensischer Techniken, die zu ihrer Bekämpfung entwickelt wurden, übertroffen. Ein kritisches Element für jede wirksame Gegenmaßnahme ist die Informationsasymmetrie – die Technik muss Informationen nutzen, die für die Manipulatoren unzugänglich sind und die nicht aus öffentlich verfügbaren Trainingsdaten gewonnen werden können.

Obwohl digitale Wasserzeichentechniken existieren, die Informationsasymmetrie nutzen, stellte das Cornell-Team fest, dass die meisten bei anderen entscheidenden Eigenschaften Mängel aufweisen. Viele aktuelle Methoden erfordern beispielsweise die Kontrolle über die Aufnahmekamera oder direkten Zugriff auf das ursprüngliche, unmanipulierte Video. Darüber hinaus kann ein Werkzeug wie eine Prüfsumme zwar erkennen, ob eine Videodatei geändert wurde, aber nicht zwischen standardmäßiger Videokompression und böswilligen Eingriffen, wie dem Einfügen virtueller Objekte, unterscheiden.

Die neueste Methode des Cornell-Teams, „Noise-Coded Illumination“ (NCI) genannt, begegnet diesen Mängeln direkt, indem sie Wasserzeichen auf geniale Weise im scheinbaren „Rauschen“ von Lichtquellen versteckt. Im Gegensatz zu ihrer früheren Arbeit, die darauf beruhte, dass der Videokünstler eine bestimmte Kamera oder ein bestimmtes KI-Modell verwendete, bietet NCI eine breitere Anwendbarkeit. Dies kann durch eine kleine Software für Computerbildschirme und bestimmte Arten von Raumbeleuchtung erreicht werden oder indem ein kleiner Computerchip an handelsübliche Lampen angebracht wird.

„Jedes Wasserzeichen enthält eine detailarme, mit Zeitstempel versehene Version des unmanipulierten Videos unter leicht unterschiedlicher Beleuchtung. Wir nennen diese ‚Code-Videos‘“, erklärte Davis. Er erläuterte, dass, wenn jemand ein Video manipuliert, die veränderten Segmente dem widersprechen, was in diesen Code-Videos vorhanden ist, wodurch effektiv festgestellt wird, wo Änderungen vorgenommen wurden. In Fällen, in denen jemand versucht, vollständig gefälschte Videos mit KI zu generieren, erscheinen die resultierenden Code-Videos als bloße zufällige Variationen. Entscheidend ist, dass das Wasserzeichen, da es so konzipiert ist, dass es Rauschen imitiert, ohne Kenntnis des Geheimcodes äußerst schwer zu erkennen bleibt.

Das Cornell-Team testete seine NCI-Methode rigoros gegen eine umfassende Reihe von Manipulationstypen, darunter Warp-Schnitte, Änderungen an Geschwindigkeit und Beschleunigung, Compositing und Deepfakes. Ihre Technik zeigte eine bemerkenswerte Robustheit und erwies sich als widerstandsfähig gegenüber Faktoren wie Signalpegeln unterhalb der menschlichen Wahrnehmung, Subjekt- und Kamerabewegungen, Kamerablitz, Variationen der menschlichen Hauttöne, verschiedenen Stufen der Videokompression sowie Innen- und Außenbereichen.

Davis räumte ein, dass selbst wenn ein Gegner die Technik kennen und es irgendwie schaffen würde, die Codes zu entschlüsseln, ihre Aufgabe immer noch wesentlich komplexer wäre. „Anstatt das Licht für nur ein Video zu fälschen, müssen sie jedes Code-Video separat fälschen, und all diese Fälschungen müssen miteinander übereinstimmen“, bemerkte er. Trotz dieses Fortschritts warnte Davis, dass der Kampf gegen Videomanipulation ein „wichtiges, fortlaufendes Problem“ sei, das „nur noch schwieriger werden wird“.