サイバーセキュリティにおけるAI:防御者の盾か、攻撃者の矛か?

Theregister

最近開催されたBlack Hatカンファレンス(毎年恒例のハッカーサマーキャンプの要となるイベント)では、サイバーセキュリティにおける人工知能の進化する役割について重要な議論が浮上しました。AIは現在、防御者と攻撃者のどちらに有利に働いているのか?フィンランドのセキュリティ企業WithSecureの当時の最高研究責任者であるミッコ・ヒッポネン氏は、AIが現在、防御者に優位性をもたらしていると示唆し、楽観的ではあるものの、一時的な見解を述べました。

ヒッポネン氏は聴衆に対し、「AIは(セキュリティにおいて)鍵だと私は本当に信じています。なぜなら、防御者が攻撃者よりも優位に立っている数少ない分野の一つだからです」と述べました。彼は、サイバーセキュリティ企業が生成AIを製品に幅広く統合している一方で、攻撃者はまだこの技術を利用し始めたばかりであり、現在のAI駆動型攻撃は比較的単純なままだと強調しました。例えば、ヒッポネン氏は、2024年にはAIシステムがゼロデイ脆弱性(開発者には知られていない重大なソフトウェアの欠陥)を発見したと公に知られているものはなかったと指摘しました。しかし、2025年半ばには、研究者たちは大規模言語モデル(LLM)スキャンを使用してすでに約2ダースのそのような脆弱性を特定しており、それらはすべてその後パッチが適用されています。彼は、ハッカーが研究のためにAIをますます利用するにつれて、さらなる発見は避けられないと警告しました。

対照的な見解は、元ニューヨーク・タイムズ紙のセキュリティ担当記者であり、現在はSilver Buckshot Venturesのパートナーを務めるニコール・パールロス氏から示されました。彼女は後のBlack Hat基調講演で、来年までには優位性が攻撃側のAIへと移行する可能性が高いと予測しました。パールロス氏はまた、米国セキュリティ業界における深刻な人材不足を指摘し、50万人の求人があるという統計を挙げました。この数字は、厳しい雇用市場を痛感している聴衆から、皮肉な笑いを誘いました。

週を通して、ベンダー、侵入テスター、そしてセキュリティの最前線にいる人々を含む業界の専門家は、AIの貢献について楽観論と懐疑論が入り混じった見解を表明しました。多くの人がその可能性に前向きである一方で、現在の防御側の優位性が無限に続くわけではないという広範な懸念があります。決定的なことに、調査対象者の誰も、AIシステムが少なくともあと10年間は自律的にネットワークを攻撃できるようになるとは予測していません。

会議での発表では、「レッドチーム演習」(ネットワーク防御をテストするための攻撃シミュレーション)のためのAIツールが頻繁に言及されました。しかし、これらのツールはまだ完全に信頼できるものではなく、誤用されると基本的なエラーを起こしやすいというのが共通認識でした。Coalfireのサイバーセキュリティ担当エグゼクティブバイスプレジデントであるチャールズ・ヘンダーソン氏は、彼の会社がAIツールを使用しているものの、人間の監視がなければその有効性は著しく制限されると強調しました。彼は、「適切に指示されれば、AIは約60パーセントの仕事をこなす」と述べ、人間の作業負荷を軽減するには優れているが、任務全体を引き継ぐのには不向きであるとしました。ヘンダーソン氏は、AIが欠陥の検出に優れているが、その効果的な実装が最も重要であると説明しました。戦略的な人間の指導なしにAIツールを単に展開することは役に立たず、これはその能力を過大評価する人々によってしばしば見落とされている点です。Sophos Cyber Threat Unitの脅威研究ディレクターであるクリス・ユール氏もこの意見に同調し、AIは人間のスキルを補強するものであって、置き換えるべきではないと示唆しました。機械学習システムは、最適な使用のために明確で限定された目標と人間の指導が必要であると述べました。このレッドチーム演習へのアプローチは、将来の犯罪者がこれらのシステムをどのように利用する可能性があるかについても貴重な洞察を提供し、セキュリティコミュニティが潜在的な攻撃をモデル化し、先手を打つことを可能にします。

防御面では、米国政府は国防高等研究計画局(DARPA)を通じて、AIを保護ツールとして積極的に投資しています。DARPAは最近、AIサイバーチャレンジに参加する3つのチームに850万ドルを授与しました。これは、ネットワークの不安定性を引き起こすことなく脆弱性を特定し、パッチを適用できるAIシステムを作成することを目的とした2年間のコンテストです。この過酷な競争では、42チームから7チームに絞られ、優勝した共同チームはジョージア工科大学、サムスンリサーチ、韓国科学技術院(KAIST)、浦項工科大学(POSTECH)のトップ研究者で構成されていました。コンテストでは、AIシステムは意図的に導入された70の脆弱性のうち54を発見し、43にパッチを適用することに成功しました。さらに印象的なことに、彼らは18の追加の脆弱性(C言語で6つ、Javaで12つ)を自律的に特定し、そのうち11にパッチを適用することに成功しました。このチャレンジから開発されたコードは現在オープンソースであり、今後さらに多くのコンテストが計画されています。また、AIが一般的な欠陥であるSQL脆弱性を発見するのに特に適していると情報筋は指摘しており、これは豊富な学習データによるものと考えられます。

出席者の間で重要な懸念事項となっていたのは、AIが雇用市場に与える潜在的な影響でした。一部の企業はセキュリティ担当者を、特にエントリーレベルの職種で削減しましたが、既存の人材ギャップは未解決のままだと主張する企業もあります。Sophosのクリス・ユール氏は、セキュリティ職におけるAIの影響は誇張されており、時にはレイオフのマーケティング口実として使われていると主張しました。彼は、AIには用途があるものの、セキュリティ労働力全体を置き換えることは現在実現可能ではなく、おそらく今後もそうではないだろうと断言しました。匿名のCISOもこれに同意し、「人間的要素を超えることは決してないでしょう。(AIシステムは)データを処理するには優れていますが、人間の創意工夫は今のところ難しい課題であり、変わる可能性はありますが。しかし、私はAIよりも自分のプログラマーを信頼しています」と述べました。

現時点では、AIはサイバーセキュリティにおける強力な拡張ツールとして機能しています。モデルが改善され続けるにつれて、将来の状況は非常に流動的であり、専門家はその最終的な軌道について決定的な予測をすることにためらいを見せています。