NIST简化AI安全指南:巧用现有框架,避免重复造轮子

Federalnewsnetwork

美国国家标准与技术研究院(NIST)正在战略性地指导网络安全社区应对复杂的人工智能领域,旨在提供必要的安全框架,同时避免用全新的指令让专业人员感到不知所措。这种有节制的方法旨在避免“重复造轮子”,而是将AI安全考量整合到既定的实践和现有指南中。

AI技术的迅速普及带来了双重挑战:AI可以显著增强网络防御能力,但它也引入了传统安全措施难以应对的新型攻击途径。超过90%的网络安全专业人员对AI驱动的威胁表示担忧,因此,对清晰、可操作指南的需求比以往任何时候都更加紧迫。NIST认识到这一点,正致力于在其基础工作之上,加强AI系统的安全性和可信度。

NIST战略的基石是于2023年1月发布的AI风险管理框架(AI RMF)。这个自愿性框架提供了一种结构化的方法来管理与AI相关的风险,强调AI系统整个生命周期中的可信赖性、问责制、透明度和道德行为。AI RMF旨在灵活适应,并以现有的框架为基础,如NIST网络安全框架(CSF)和NIST隐私框架。为了进一步完善,NIST还于2024年7月发布了AI RMF的生成式AI配置文件,专门针对这些高级模型带来的独特风险。

除了AI RMF,NIST还在其网络安全框架(CSF)2.0的保护伞下积极开发“网络AI配置文件”。该配置文件旨在帮助组织更好地准备和管理与AI相关的网络风险,包括攻击者利用AI工具增强网络攻击(如深度伪造和高级网络钓鱼)所带来的风险。这份关键配置文件的草案预计将在未来9到12个月内发布,NIST正在通过研讨会和信息征集积极寻求公众反馈,以确保其实用性。2025年8月初,原计划举行一次虚拟会议以收集网络AI配置文件相关意见,但遭遇了技术困难,这突显了这些协作努力的动态性和演变性。

此外,NIST计划在未来6到12个月内,为其特殊出版物800-53系列发布一个新的控制叠加,专门针对AI系统固有的独特风险。该机构还在努力将AI考量整合到NICE网络安全劳动力框架中,引入AI安全能力领域,并更新工作角色,以反映AI对网络安全劳动力的不断演变的影响。这种整体方法确保不仅技术得到保护,而且负责防御的人力元素也具备必要的知识和技能。

NIST致力于避免重复工作的承诺在其“零草案”倡议中得到了体现,该倡议通过征集AI测试、评估、验证和确认指南的早期反馈,加速了AI标准的制定并扩大了参与度。通过借鉴CISA等机构成熟的安全开发实践并将其应用于AI环境,NIST旨在提供既有效又易于整合到现有组织流程中的指南。这种战略重点使网络安全专业人员能够管理AI对其工作的多方面影响,而不会感到不知所措,从而促进一个更安全、更具弹性的数字未来。