AI詐欺の脅威増大:進化するディープフェイク検出器の挑戦
ラスベガスで開催されたBSides、Black Hat、DEF CONなどの最近のセキュリティ会議では、AIの進歩によって著しく増幅される詐欺の脅威の拡大という、共通の懸念が浮き彫りになりました。AIツールのコストが急落し、ディープフェイク技術がますます高度化するにつれて、専門家はデジタル詐欺の急増を予測しています。例えば、デロイトは、2027年までにディープフェイク詐欺が米国経済に最大400億ドルの損失をもたらす可能性があると予測しており、セキュリティ業界の多くの人々はこの推定が控えめであると考えています。この憂慮すべき傾向は、サム・アルトマン(Sam Altman)のような業界リーダーの発言に続くものです。彼は、AIがパスワードを除いてほとんどの従来の認証方法を効果的に迂回していると、物議を醸す発言をしました。
ディープフェイク検出ソフトウェアの市場が活況を呈しているにもかかわらず、これらのツールの有効性は依然として重要な論点です。Featurespaceで10年以上にわたり英国の大手銀行の詐欺監視に携わってきたカーシック・タディナダ(Karthik Tadinada)氏は、アンチディープフェイク技術は、不正行為の特定と誤検知の排除において、通常90%程度の精度を達成すると指摘しています。一見すると高いように見えますが、この10%の誤差範囲は犯罪者にとって大きな機会となり、特に偽の身元を生成するコストが下がり続けている現状では顕著です。タディナダ氏が指摘するように、「これらのものを作成する人々の経済性と、あなたが検出して対処できるものとの比較では、実際、その10%は依然として利益を上げるのに十分な大きさです。」
ビデオによるなりすましはAI以前から存在しましたが、機械学習によって劇的に増幅されました。タディナダ氏と元Featurespaceの同僚マーティン・ヒグソン(Martyn Higson)は、英国首相キア・スターマー(Keir Starmer)の顔をヒグソン氏の体にシームレスに重ね、説得力のある声の模倣も加え、すべてMacBook Proだけで実現できることを実演しました。この特定の例は、高度なディープフェイク検出システムを回避するほど洗練されていませんでしたが(AIが生成した顔は、不自然に膨らんだ顎や硬い表情など、特徴的な兆候を示すことが多い)、プロパガンダや誤情報を広めるには十分すぎるほどでした。このことは、ジャーナリストのクリス・クオモ(Chris Cuomo)が、米国下院議員アレクサンドリア・オカシオ=コルテス(Alexandria Ocasio-Cortez)が物議を醸す発言をしているディープフェイク動画を一時的に投稿し、その後撤回した最近の事件によって裏付けられました。
メディア監視会社Silent Signalsのレッドチームリーダーであるマイク・ラゴ(Mike Raggo)氏は、ビデオ偽造の品質が劇的に向上したことに同意しています。しかし、彼はより効果的な検出を約束する新しい技術も指摘しています。例えば、Silent Signalsは、OpenAIのGPT-5と連携して、無料のPythonベースのツールであるFake Image Forensic Examiner v1.1を開発しました。このツールは、アップロードされたビデオをフレームごとに分析し、オブジェクトの端のぼかしや背景要素の異常など、操作の兆候を綿密に探します。重要なのは、メタデータの検証が最も重要であることです。なぜなら、多くのビデオ操作ツールは、商用かオープンソースかを問わず、ファイルコード内に意図せずデジタル痕跡を残すことがあり、堅牢な検出エンジンはこれらを特定できるからです。
ビデオ以外では、画像は詐欺師にとって最も懸念されるベクトルかもしれません。その作成の容易さと、企業がますます画像に依存しているためです。タディナダ氏の銀行での経験は、特にCOVID-19パンデミック中の対面銀行業務の減少に伴う電子記録の脆弱性を浮き彫りにしました。例えば、英国で銀行口座を開設するには、通常、有効な身分証明書と最近の公共料金の請求書が必要です。タディナダ氏は、これら両方が簡単に偽造でき、電子的に検証するのが難しいことを実証しました。ラゴ氏はBlack Hatでいくつかの有望なディープフェイク検出ソリューションを観察しましたが、効果的なツールはメタデータ分析を優先する必要があると強調しました。これは、国際カラーコンソーシアム(ICC)プロファイル(色のバランスに関連するデジタル署名)の欠落や、GoogleがAndroid画像ファイルに「Google Inc」を埋め込む習慣など、ベンダー固有のメタデータを探すことを意味します。さらに、オブジェクトの境界のぼかしや明るさの不一致を精査するエッジ分析と、オブジェクト内の色の変化を測定するピクセル分散は、不可欠な技術です。
しかし、音声ディープフェイクの検出は、異なる一連の課題を提示し、これらの音声攻撃は増加しています。5月、FBIは、AIが生成した米国政治家の声を利用して、個人を騙し、金銭的利益のために政府システムへのアクセスを許可させる詐欺キャンペーンについて警告を発しました。FBIの助言は、注目すべきことに非技術的であり、ユーザーに情報源を独立して検証し、語彙やアクセントの微妙な不一致に耳を傾けるよう促し、AI生成コンテンツを区別することの難しさが増していることを認めました。同様に、連邦取引委員会(Federal Trade Commission)がAI生成音声を検出するために後援した1年間のコンテストでは、わずか35,000ドルの賞金が提供され、この検出分野が初期段階にあることを反映しています。
音声クローニング技術には、文字起こし、メディアの吹き替え、コールセンターボットの強化など、正当なアプリケーションがありますが(例えば、MicrosoftのAzure AI Speechは、数秒の音声から説得力のある音声クローンを生成できますが、ウォーターマークは不完全です)、詐欺師にとっても強力なツールです。Consumer Reportsが6つの音声クローニングサービスを調査した結果、3分の2が誤用防止にほとんど努力を払っておらず、多くの場合、音声クローンを作成する法的権利の簡単なチェックボックスの確認しか求めていませんでした。テストされた企業の中で、Resemble AIだけがリアルタイムのオーディオクリップを義務付けましたが、これでも録音されたオーディオによって騙されることがあり、音質の問題により精度が低下することもありました。Resemble AIを含む多くの音声クローニング企業は、現在、ディープフェイク検出を自社の製品に統合しています。ResembleのCEOゾハブ・アーメド(Zohaib Ahmed)氏は、彼らの膨大な本物の音声とクローン音声のデータベースが貴重な洞察を提供し、人間には検出できない微妙な「アーティファクト」を特定して偽物を区別できると説明しました。
結局のところ、従来のサイバーセキュリティと同様に、ディープフェイク検出に絶対確実な技術的解決策はありません。人間の要素が依然として重要です。Sophosのレッドチームリーダーであるエリック・エスコバル(Eric Escobar)氏は、「予防意識」を推奨し、「検証は絶対に重要であり、特にお金が絡む場合はそうです」と強調しています。彼は個人に「これはその人らしいか?」と問いかけ、不確かな場合は再確認するよう促しています。タディナダ氏は、金融業界に対してこれを強調し、ディープフェイクスキャンと並行して、他の詐欺検出方法と同様に、金融取引自体を不審なパターンについて監視する必要があると述べています。
このエスカレートする軍拡競争は、敵対的生成ネットワーク(GANs)によってさらに複雑になります。GANsは、メディアを作成するジェネレーターと、生成されたコンテンツを識別しようとするディスクリミネーターという2つの競合するAIエンジンを使用して、ディープフェイクのリアリズムを反復的に向上させます。現在のGANsはメタデータに識別可能な署名を残す可能性がありますが、この技術はますます説得力のある結果を約束しており、必然的に詐欺行為の成功が増加するでしょう。