网络安全AI的3000万美元豪赌:变革还是灾难?
Prophet Security 近日宣布获得 3000 万美元融资,用于开发和部署“自主AI防御者”——一种旨在以前所未有的速度调查安全威胁的技术。这一发展在网络安全行业引发了激烈辩论,各组织在应对海量警报的同时,权衡AI的潜力与专家对其固有风险的警告。
当前网络安全挑战的规模是严峻的。据报道,安全团队平均每天收到 4484 个警报,其中惊人的 67% 因分析师工作量过大而未得到处理。与此同时,预计到 2027 年,网络犯罪造成的损失将达到 23 万亿美元,而全球网络安全专业人员短缺近 400 万人,这使得问题更加复杂。Prophet Security 提出的解决方案是一种AI系统,能够在三分钟内调查警报,这比许多人工团队报告的典型 30 分钟基线要快得多。
Prophet Security 的创新被称为“代理式AI SOC分析师”,代表了一种超越简单自动化的先进人工智能形式。与需要人工命令的传统安全工具不同,该系统能够自主地对整个IT环境中的安全警报进行分类、调查和响应,无需直接人工干预。该公司声称,其系统已为其客户进行了超过一百万次自主调查,从而使响应时间加快了十倍,误报减少了 96%。这对于安全运营中心(SOC)尤其重要,因为在 SOC 中,误报可能占到警报的 99%。
Prophet Security 并非唯一追求AI驱动网络安全的公司。德勤 2025 年的网络安全预测预计,到那一年,40% 的大型企业将在其安全运营中实施自主AI系统。同样,高德纳(Gartner)预测,到 2028 年,多智能体系统将应用于 70% 的AI应用程序中。
尽管取得了这些可喜的进展,领先的网络安全专家仍对快速推进完全自主安全系统表示严重保留。例如,高德纳警告称,完全自主的 SOC 不仅不切实际,而且可能带来灾难性后果。一个主要担忧是,当AI系统最容易受到攻击时,公司可能会减少人工监督。预测表明,到 2030 年,75% 的 SOC 团队可能由于过度依赖自动化而失去基础分析能力。此外,到 2027 年,30% 的 SOC 负责人预计将在将 AI 集成到生产中面临重大挑战,而到 2028 年,如果组织未能优先提升其人工团队的技能,三分之一的高级 SOC 职位可能会空缺。
AI 系统的一个关键漏洞是它们容易受到对手的操纵。美国国家标准与技术研究院(NIST)的研究证实,AI 系统可能被攻击者故意混淆或“中毒”,目前尚无“万无一失的防御”可用。东北大学教授 Alina Oprea 警告说:“大多数此类攻击都相当容易实施,并且只需要对 AI 系统有最少的了解。”这引发了一个令人担忧的前景:为保护而设计的 AI 可能被变成针对其预期用户的武器。
网络安全行业正处于一个关键时刻,关于 AI 集成的决策可能深刻影响其未来。尽管 Prophet Security 的巨额融资反映了投资者对 AI 驱动防御的信心,但该技术固有的局限性正日益显现。当前的“自主”系统通常在 3-4 级自主性下运行,这意味着它们可以执行复杂任务,但仍需要人工审查边缘情况和战略决策。真正的、无需辅助的自主性仍然是一个愿望,而非现实。
许多专家达成的共识是,最有效的未来之路是人与 AI 之间的战略伙伴关系,而非彻底替代。微软安全副驾驶(Microsoft Security Copilot)等项目已经表明,AI 辅助如何使响应人员在几分钟内处理事件,同时保持关键的人工监督。同样,ReliaQuest 报告称,其 AI 安全代理处理警报的速度比传统方法快 20 倍,威胁检测准确性提高了 30%,所有这些都由人类牢牢掌控。
Prophet Security 的领导层强调,他们的目标不是消除工作岗位,而是让分析师摆脱耗时的警报分类和调查任务。然而,组织现在就 AI 部署做出的选择将产生长期后果。在网络安全领域,判断失误的代价不仅仅是财务影响;公司的数据完整性可能取决于这些决策。最终,那些能够蓬勃发展的组织将是那些利用 AI 增强和放大人类专业知识的组织,认识到当对手开始部署 AI 对抗 AI 时,人类的警惕性将是必不可少的。