サイバーセキュリティAIの3000万ドル投資:革命か、それとも破滅か?
Prophet Securityは最近、サイバーセキュリティの脅威を前例のない速度で調査するために設計された技術である「自律型AI防御システム」の開発と展開のために3000万ドルの資金を確保したと発表しました。この開発は、圧倒的な量の警告に苦しむ組織がAIの可能性と、その固有のリスクに関する専門家の警告を比較検討する中で、サイバーセキュリティ業界内で重要な議論を巻き起こしています。
現在のサイバーセキュリティの課題の規模は厳しいものです。セキュリティチームは、平均して毎日4,484件の警告に悩まされており、アナリストの過負荷により驚くべき67%が未処理のままになっていると報じられています。これは、サイバー犯罪による損害が2027年までに23兆ドルに達すると予測されており、さらに世界中で約400万人のサイバーセキュリティ専門家が不足していることで事態は悪化しています。Prophet Securityが提案するソリューションは、3分以内に警告を調査できるAIシステムであり、多くの人間のチームが報告する一般的な30分のベースラインよりも大幅に高速です。
Prophet Securityのイノベーションである「エージェンティックAI SOCアナリスト」は、単なる自動化を超えた高度な人工知能の形態を表しています。人間のコマンドを必要とする従来のセキュリティツールとは異なり、このシステムは、人間の直接的な介入なしに、IT環境全体でセキュリティ警告を自律的にトリアージ、調査、および応答します。同社は、そのシステムがすでに顧客のために100万件以上の自律調査を実施し、応答時間を10倍高速化し、誤検知を96%削減したと主張しています。これは、誤検知が警告の最大99%を占める可能性があるセキュリティオペレーションセンター(SOC)にとって特に重要です。
Prophet Securityは、AI駆動型サイバーセキュリティの追求において単独ではありません。デロイトの2025年のサイバーセキュリティ予測では、その年までに大企業の40%がセキュリティ運用に自律型AIシステムを導入すると予想されています。同様に、ガートナーは、2028年までにAIアプリケーションの70%でマルチエージェントシステムが利用されると予測しています。
これらの有望な進歩にもかかわらず、主要なサイバーセキュリティ専門家は、完全な自律型セキュリティシステムへの急速な推進について深刻な懸念を表明しています。例えば、ガートナーは、完全に自律的なSOCは非現実的であるだけでなく、壊滅的な結果を招く可能性があると警告しています。大きな懸念は、AIシステムが攻撃に対して最も脆弱なときに、企業が人間の監視を削減する可能性があることです。予測によると、2030年までにSOCチームの75%が自動化への過度の依存により、基本的な分析能力を失う可能性があります。さらに、2027年までにSOCリーダーの30%がAIを本番環境に統合する際に重大な課題に直面すると予想されており、2028年までに組織が人間チームのスキルアップを優先しない場合、SOCのシニア職の3分の1が空席のままになる可能性があります。
AIシステムの重大な脆弱性は、敵対者による操作に対する感受性です。米国国立標準技術研究所(NIST)の調査は、AIシステムが攻撃者によって意図的に混乱させられたり、「汚染」されたりする可能性があることを確認しており、現在「完璧な防御」は利用できません。ノースイースタン大学のアリナ・オプレア教授は、「これらの攻撃のほとんどは非常に簡単に実行でき、AIシステムに関する最小限の知識しか必要としない」と警告しました。これは、保護のために設計されたAIが、意図したユーザーに対する武器に変わるという憂慮すべき見通しを提起します。
サイバーセキュリティ業界は、AI統合に関する決定がその未来を深く形作る可能性がある重要な岐路に立っています。Prophet Securityの多額の資金調達は、AI駆動型防御に対する投資家の信頼を反映していますが、テクノロジー固有の限界はますます明らかになっています。現在の「自律型」システムは通常、レベル3〜4の自律性で動作します。これは、複雑なタスクを実行できるものの、エッジケースや戦略的な決定については人間のレビューが依然として必要であることを意味します。真の、補助なしの自律性は、現実ではなく願望のままです。
多くの専門家の間でのコンセンサスは、最も効果的な前進の道は、全面的な代替ではなく、人間とAIの戦略的パートナーシップを伴うということです。Microsoft Security Copilotのようなイニシアチブは、AIアシスタンスが応答者が数分でインシデントに対処できるようにしながら、重要な人間の監視が維持される方法を示しています。同様に、ReliaQuestは、そのAIセキュリティエージェントが従来のメソッドよりも20倍速く警告を処理し、脅威検出の精度を30%向上させると報告しています。これらすべては、人間がしっかりとした制御を維持しながら行われます。
Prophet Securityのリーダーシップは、彼らの目的は雇用を排除することではなく、アナリストを警告のトリアージと調査という時間のかかるタスクから解放することであると強調しています。しかし、組織が現在AIの展開に関して下す選択は、長期的な結果をもたらすでしょう。サイバーセキュリティにおいて、判断の誤りの代償は金銭的な影響にとどまりません。企業のデータの完全性は、これらの決定にかかっています。最終的に、繁栄するのに最適な立場にある組織は、AIをレバレッジして人間の専門知識を増強し、増幅させる組織であり、敵対者がAIをAIに対して展開し始めたときに、人間の警戒が不可欠であることを認識している組織となるでしょう。