AI在网络安全中:防御者的盾牌还是攻击者的矛?

Theregister

在最近的Black Hat大会上——年度“黑客夏令营”的基石活动,一场关于人工智能在网络安全中不断演变的角色辩论浮出水面:它目前是偏向防御者还是攻击者?芬兰安全公司WithSecure当时的首席研究官Mikko Hyppönen提出了一种乐观但暂时的观点,认为AI目前赋予了防御者优势。

“我确实相信AI是(安全领域的)关键,因为这是少数几个防御者领先于攻击者的领域之一,”Hyppönen告诉听众。他强调,虽然网络安全公司正在广泛地将生成式AI集成到其产品中,但攻击者才刚刚开始利用这项技术,目前AI驱动的攻击仍相对简单。为了说明这一点,Hyppönen指出,在2024年,没有AI系统被公开已知发现零日漏洞——即开发者未知的重要软件缺陷。然而,到2025年中期,研究人员已经使用大型语言模型(LLM)扫描发现了大约二十几个此类漏洞,所有这些漏洞此后都已被修补。他警告说,随着黑客越来越多地将AI用于研究,更多的发现将不可避免。

截然不同的观点来自Nicole Perlroth,她曾是《纽约时报》的安全记者,现在是Silver Buckshot Ventures的合伙人。在随后的一次Black Hat主题演讲中,她预测到明年,优势很可能转向进攻性AI。Perlroth还指出美国安全行业存在巨大的人才缺口,她引用了50万个职位空缺的数据——这一数字引发现场听众苦涩的笑声,他们都深知当前就业市场的挑战。

整个一周,包括供应商、渗透测试人员和处于安全前线的专家们,都对AI的贡献表达了乐观与怀疑并存的看法。尽管许多人对其潜力持积极态度,但普遍存在一种担忧,即当前的防御优势不会无限期持续。关键的是,没有受访者预计AI系统能够在至少未来十年内自主攻击网络。

会议上的演讲频繁提及用于“红队演练”——模拟攻击以测试网络防御——的AI工具。然而,共识是这些工具尚未完全值得信赖,如果使用不当,容易出现基本错误。Coalfire的网络安全执行副总裁Charles Henderson强调,虽然他的公司使用AI工具,但如果没有人类监督,它们的效力将受到严重限制。他指出,“如果指导得当,AI能完成大约60%的工作”,这使其非常适合减轻人类工作量,但不适合接管整个任务。Henderson解释说,AI擅长发现缺陷,但其有效实施至关重要;仅仅部署AI工具而没有战略性的人类指导是无益的,这一点常常被那些过分夸大其能力的人所忽视。Sophos网络威胁部门威胁研究总监Chris Yule也表达了同样的看法,他建议AI应该增强而非取代人类技能,机器学习系统需要明确、有限的目标和人类指导才能实现最佳使用。这种红队演练方法还能提供宝贵的见解,了解未来的犯罪分子可能如何利用这些系统,从而使安全社区能够模拟并预防潜在的攻击。

在防御方面,美国政府通过国防高级研究计划局(DARPA)积极投资AI作为一种保护工具。DARPA最近向其“AI网络挑战赛”中的三支参赛团队授予了850万美元,这项为期两年的竞赛旨在创建能够识别和修补漏洞而不会导致网络不稳定的AI系统。这场艰苦的比赛将42支团队缩小到7支,最终获胜的合作团队由来自佐治亚理工学院、三星研究院、韩国高等科学技术院(KAIST)和浦项科技大学(POSTECH)的顶尖研究人员组成。在比赛中,AI系统成功发现了70个故意引入的漏洞中的54个,并修补了其中的43个。更令人印象深刻的是,它们自主识别了18个额外的漏洞——其中6个在C语言中,12个在Java中——并成功修补了其中的11个。这项挑战赛开发的代码现在已开源,未来还计划举办更多此类竞赛。此外,有消息指出,AI在发现SQL漏洞(一种常见缺陷)方面表现出特别的才能,这很可能得益于大量的训练数据。

与会者普遍关注的一个重要问题是AI对就业市场可能产生的影响。尽管一些公司已经削减了安全人员,特别是在入门级岗位,但另一些公司则认为现有的人才缺口仍未解决。Sophos的Chris Yule认为,AI对安全职位的影响被夸大了,并暗示它有时被用作裁员的市场借口。他坚称,虽然AI有其用途,但目前以及可能永远都无法取代整个安全劳动力群体。一位匿名的CISO对此表示赞同,他指出:“你永远无法超越人类因素。(AI系统)善于处理数据,但人类的创造力目前很难被取代,尽管这可能会改变。但我更信任我的程序员,而不是AI。”

目前,AI在网络安全中充当着强大的增强工具。随着模型的不断改进,未来的格局仍高度不确定,专家们不愿对其最终走向做出明确预测。