AI重塑网络安全:MCP安全漏洞的紧急警示

Datanami

网络安全领域正经历一场前所未有的变革,生成式AI和代理式AI的出现加速了这一动态环境的演变。随着组织应对不断演变的新威胁,理解这些先进技术的影响对于维护安全至关重要。

一个关键的关注领域是新型AI专用协议的出现,例如模型上下文协议(MCP)。MCP旨在简化AI模型与数据源之间的连接,目前正受到关注,但它也带来了显著的安全漏洞。该协议推出不到一年,其不成熟性体现在易受各种攻击,包括身份验证挑战、供应链风险、未经授权的命令执行和提示注入。红帽公司的Florencio Cano Gabarda强调,与任何新技术一样,企业必须彻底评估MCP的安全风险,并实施适当的控制措施以安全地利用其价值。

日本理化学研究所计算科学研究中心超级计算性能研究团队负责人Jens Domke进一步警告了MCP固有的不安全性。他指出,MCP服务器被配置为持续监听所有端口,如果未正确隔离,将构成重大风险。Domke参与了理研私人AI测试平台的搭建,他强调,虽然他的团队在私有网络中,通过安全的VPN式Docker容器运行MCP服务器以防止外部访问,但这只是一种缓解措施,并非完整的解决方案。他警告说,当前为了MCP的功能性而急于采用它,往往忽视了这些关键的安全方面,并预计安全研究人员需要数年时间才能全面解决和修复这些问题。在此期间,安全的部署实践至关重要。

除了这些战术层面的协议担忧之外,AI还给网络安全带来了更广泛的战略挑战。大型语言模型(LLMs),如ChatGPT,可能被网络犯罪分子武器化。由AI驱动的安全公司Tuskira的联合创始人兼首席执行官Piyush Sharma解释说,通过精心设计的提示,LLMs可以生成针对安全漏洞的利用代码。虽然直接请求可能会被拒绝,但将其重新表述为“漏洞研究”查询则可以生成功能性的Python代码。这并非理论,据报道,暗网上的定制利用代码价格低至50美元。此外,网络犯罪分子正在利用LLMs分析过去漏洞的日志,识别旧的、未打补丁的缺陷——甚至包括那些以前被认为微不足道的缺陷。这导致零日安全漏洞率据报道增加了70%。其他与AI相关的风险包括数据泄露和幻觉,特别是当组织将AI集成到客户服务聊天机器人中时,可能导致敏感或不准确信息的无意共享。

反之,AI也正成为不可或缺的防御工具。海量且复杂的威胁数据,其中许多现在可能是AI生成的,使得人类安全分析师不堪重负。Sharma指出,对于安全运营中心(SOC)工程师或漏洞专家来说,解析来自防火墙、安全信息和事件管理(SIEM)系统以及端点检测和响应(EDR)解决方案等工具的大量警报,“是不可能完成的任务”。

为了应对这种情况,Tuskira等公司正在开发AI驱动的网络安全平台。Tuskira的软件利用AI关联和连接来自各种上游安全工具的不同数据点。例如,它可以从SIEM系统接收数十万个警报,对其进行分析,并识别潜在的漏洞或错误配置,有效地“将威胁与防御结合起来”。Tuskira的方法涉及自定义模型和对在私有数据中心运行的开源基础模型的广泛微调。这使得AI在分析更多数据时,能够上下文地构建新的威胁检测规则和模式,超越了静态的手动编码签名。

将新的AI组件——如MCP服务器、AI代理和LLM——集成到组织的技??术堆栈中,需要新型的安全控制。了解这些组件如何交互以及从入侵检测的角度保护它们,对于未来的网络安全战略至关重要。AI在进攻和防御能力方面的动态性确保了网络安全游戏将继续快速演变,要求不断适应和创新。

AI重塑网络安全:MCP安全漏洞的紧急警示 - OmegaNext AI 新闻