美国企业AI滥用成灾:高管层也未能幸免
人工智能安全提供商CalypsoAI最近的一项研究揭示,美国组织内部普遍存在且日益加剧的AI工具滥用趋势,从入门级员工到最高层的高管(C-suite)都未能幸免。该公司的《内部AI威胁报告》详细介绍了这些发现,描绘了一幅“隐藏的现实”图景:各级员工都在利用AI工具,“通常没有负罪感、犹豫或监督”。
或许最引人注目的是关于高级领导层的揭示。一半受访高管表示更喜欢AI经理而非人类经理,但有高达34%的人承认无法可靠地区分AI代理和真实员工。更令人担忧的是,超过三分之一的业务领导者(38%)承认不知道AI代理究竟是什么。令人震惊的是,35%的高管承认曾将公司专有信息提交给AI工具以完成任务。
这种为了AI便利而违反或绕过规则的意愿,并非仅限于高管层。这项于6月对1000多名25-65岁美国全职办公室职员进行的调查发现,45%的员工信任AI胜过他们的同事。超过一半(52%)的员工表示,即使违反公司政策,他们也会使用AI来简化工作。在高管中,这一数字飙升至67%,表明对既定规章制度的普遍漠视。
这个问题在高度受监管的行业尤为突出。在金融业,60%的受访者承认违反了AI规定,另有三分之一的人使用AI访问受限制的数据。在安全行业,42%的员工明知故犯地使用AI违反政策,58%的人表示对AI的信任超过了对同事的信任。即使在医疗保健领域,也只有55%的员工始终遵守其组织的AI政策,27%的人表示更喜欢向AI主管而非人类主管汇报。
CalypsoAI首席执行官唐纳查·凯西(Donnchadh Casey)强调了这些发现的紧迫性。“外部威胁常常受到关注,”他解释说,“但眼前且增长更快的风险来自内部,各级员工都在未经监督的情况下使用AI。”他指出,高管层领导者绕过自身规则的速度之快令他感到惊讶。“高级领导者应该设定标准,然而许多人却在引领这种冒险行为,”凯西观察到,并指出高管有时采纳AI工具的速度,比负责确保其安全的团队能够响应的速度还要快。他总结说,这既是领导力挑战,也是治理挑战。
Info-Tech研究集团的技术顾问贾斯汀·圣莫里斯(Justin St-Maurice)也表达了同样的看法,他将这种现象比作“影子AI”正在成为“新的影子IT”。员工们诉诸未经批准的工具,因为AI提供了实实在在的好处:通过承担日常任务实现“认知卸载”,以及通过加速思考、写作和分析实现“认知增强”。圣莫里斯强调了这些好处的强大吸引力,指出超过一半的员工即使被禁止也会使用AI,三分之一的人在敏感文件上使用过AI,近一半的受访安全团队承认将专有材料粘贴到公共工具中。他认为这不一定是员工不忠,而更像是治理和赋能滞后于当代工作实践的症状。
风险是不可否认的。每一个未经监控的AI提示都可能导致知识产权、公司战略、敏感合同或客户数据泄露到公共领域。圣莫里斯警告说,简单地阻止AI服务将适得其反,反而会迫使用户转入地下,寻求替代访问方式。相反,他提倡一种更实用的方法:结构化赋能。这包括提供一个经过批准的AI网关,将其与身份管理集成,记录提示和输出,对敏感字段进行修订(redaction),并发布清晰简洁的规则。这些措施应与简短的、基于角色的培训以及批准的模型和用例目录相结合,为员工提供一条安全地利用AI优势的途径。
凯西表示赞同,并强调任何有效的解决方案都必须兼顾人员和技术。他警告说,最初完全阻止AI的反应往往会适得其反,因为员工通常会规避此类规则以获取生产力优势。他认为,一种更优的策略是,在提供组织内部AI访问权限的同时,对AI的使用进行监控和控制,并在行为偏离政策时进行干预。这需要清晰、可执行的政策,并结合实时控制,以确保AI活动在任何地方都是安全的,包括对大规模处理敏感数据的AI代理进行监督。通过在AI部署点和执行关键工作的地方确保其安全,企业可以在不牺牲可见性或控制的情况下启用AI的使用。