コーネル大学が新技術:光に透かしを埋め込み、偽動画を撲滅

Arstechnica

動画コンテンツが視聴者を欺くために容易に操作されるようになったことで、真偽を見分けることに苦労するファクトチェッカーにとって大きな課題が生じています。この増大するデジタル軍拡競争に対応するため、コーネル大学の科学者たちは、光の変動内に独自の「透かし」を埋め込むことができる新しい防御ソフトウェアを発表しました。これにより、動画コンテンツがいつ改ざんされたかが明らかになります。この革新的なブレークスルーは、6月に権威あるジャーナル『ACM Transactions on Graphics』に掲載された後、2025年のバンクーバーで開催されたSIGGRAPHで発表されました。

「動画はかつて真実の源として扱われていましたが、もはやそのような前提はできません」と、このアイデアを最初に考案したコーネル大学の共同著者であるエイブ・デイビス氏は述べました。彼はこの大きな変化を強調し、「今では、好きなように動画を作成できます。これは楽しいことでもありますが、同時に問題でもあります。何が本物かを見分けるのがますます難しくなっているからです」と指摘しました。

研究者によると、欺瞞的な偽動画を作成しようとする者たちは、本物の動画素材への無制限なアクセスと、洗練された低コストの編集ツールの広範な利用という根本的な利点を持っています。これらのツールは、しばしば人工知能によって動かされ、膨大なデータセットから迅速に学習し、その偽造品を本物の映像とほとんど区別できないものにします。説得力のある偽造品の生成における進歩は、これまでそれらに対抗するために設計されたフォレンジック技術の開発を上回っていました。効果的な対抗策にとって重要な要素は情報の非対称性です。この技術は、操作者にはアクセスできず、公開されているトレーニングデータから得ることができない情報を活用する必要があります。

情報の非対称性を利用するデジタル透かし技術は存在しますが、コーネル大学のチームは、ほとんどが他の重要な属性で不十分であると観察しました。例えば、現在の多くの方法は、録画カメラの制御や、元の未操作動画への直接アクセスを必要とします。さらに、チェックサムのようなツールは、動画ファイルが変更されたかどうかを検出できますが、標準的な動画圧縮と、仮想オブジェクトの挿入などの悪意のある介入とを区別することはできません。

コーネル大学チームの最新の方法は「ノイズ符号化照明」(NCI)と呼ばれ、光源の明らかな「ノイズ」の中に透かしを巧みに隠すことで、これらの欠点を直接解決します。動画作成者が特定のカメラやAIモデルを使用することに依存していた以前の研究とは異なり、NCIはより広い適用性を提供します。これは、コンピューター画面や特定の種類の室内照明用の小さなソフトウェア、または市販のランプに小さなコンピューターチップを取り付けることによって実現できます。

「各透かしには、わずかに異なる照明下にある未操作動画の低忠実度でタイムスタンプ付きのバージョンが含まれています。これらを『コード動画』と呼んでいます」とデイビス氏は説明しました。彼が詳しく述べたところによると、誰かが動画を操作すると、変更されたセグメントがこれらのコード動画に存在する内容と矛盾し始め、変更が加えられた場所を効果的に特定します。誰かがAIで完全に偽の動画を生成しようとする場合、生成されたコード動画は単なるランダムなバリエーションとして現れます。決定的に重要なのは、透かしがノイズを模倣するように設計されているため、秘密のコードを知らなければ検出するのが非常に困難であることです。

コーネル大学チームは、ワープカット、速度と加速度の変更、合成、ディープフェイクなど、あらゆる種類の操作に対してNCIメソッドを厳密にテストしました。彼らの技術は驚くべき堅牢性を示し、人間の知覚以下の信号レベル、被写体とカメラの動き、カメラのフラッシュ、人間の肌の色調の変化、異なるレベルの動画圧縮、屋内および屋外の設定といった要因に対して耐性があることを証明しました。

デイビス氏は、たとえ敵対者がこの技術を知っていて、どうにかしてコードを解読できたとしても、彼らのタスクは依然として実質的に複雑になると認めました。「彼らは一つの動画の光を偽造するのではなく、各コード動画を別々に偽造しなければならず、それらの偽造はすべて互いに一致している必要があります」と彼は述べました。この進歩にもかかわらず、デイビス氏は、動画操作との戦いは「重要な進行中の問題」であり、「ますます困難になるだけだ」と警告しました。