Anaconda报告:数据治理漏洞阻碍AI落地

Datanami

企业快速推动人工智能规模化应用正遭遇一个熟悉的障碍:强大的治理。随着组织越来越多地试验复杂的AI模型管道,与监管漏洞相关的固有风险正变得日益明显。尽管AI项目进展迅速,但管理其所需的基础设施却滞后,在创新需求与合规、道德诚信和安全的关键需求之间造成了日益加剧的紧张关系。

近期研究的一个显著发现强调了治理与数据管理之间深刻的相互关联。根据Anaconda一份基于对300多名AI、IT和数据治理专业人士调查的新报告,高达57%的受访者表示,监管和隐私问题正在积极减缓他们的AI项目。同时,45%的受访者承认在为模型训练获取高质量数据方面面临挑战。尽管这些挑战是独立的,但它们共同迫使公司开发更智能的系统,然而它们同时又面临信任和数据准备度方面的短缺。

这份题为《弥合AI模型治理鸿沟》的报告揭示,当治理被视为事后诸葛时,它往往成为AI实施的主要失败点。Anaconda工程副总裁Greg Jennings强调了这一点,指出组织在加速投资和期望提高的背景下,正在努力应对基本的AI治理挑战。他建议,通过集中化包管理并建立明确的代码来源、审查和批准政策,组织可以在不阻碍AI采用的情况下加强治理。他认为,这些措施有助于建立一个更可预测、管理良好的开发环境,使创新和监管能够和谐运作。

报告指出,工具在更广泛的AI讨论中常被忽视,但它扮演着比许多人意识到的更关键的角色。只有26%的受访组织拥有统一的AI开发工具集。大多数组织正在拼凑碎片化的系统,这些系统常常缺乏互操作性。这种碎片化导致重复工作、不一致的安全检查以及不同团队之间的协调不力。报告强调,治理不仅仅是政策起草;它需要端到端的执行。当工具链脱节时,即使是善意的监管也可能崩溃,从而形成削弱企业AI努力的结构性弱点。

与碎片化系统相关的风险不仅限于内部低效率,还直接损害核心安全实践。Anaconda报告指出一个“开源安全悖论”:尽管82%的组织声称会验证Python包是否存在安全问题,但近40%的组织仍然面临频繁的漏洞。这种脱节至关重要,表明仅靠验证是不够的。如果没有内聚的系统和明确的监管,即使精心设计的安全检查也可能遗漏关键威胁。当开发工具各自为政时,治理就会失去控制,使得即使强有力的政策也无法在技术堆栈的每个层面得到一致应用,从而变得无效。

部署后监控作为AI生命周期管理的关键方面,常常被忽视,从而造成重大盲点。报告发现,30%的组织缺乏任何正式方法来检测模型漂移——即模型性能随时间推移的下降。即使在那些有此方法的组织中,许多也缺乏完整的可见性,只有62%的组织报告使用全面的文档进行模型跟踪。这些漏洞增加了“无声故障”的风险,即模型开始产生不准确、有偏见或不适当的输出,而未被立即检测到。此类疏忽可能引入合规不确定性,并使证明AI系统按预期运行的任务复杂化,随着模型变得更加复杂并更深入地嵌入决策过程,这正成为一个日益增长的责任。

治理问题也出现在开发周期的早期,特别是在AI辅助编码工具广泛采用的情况下。报告将其称为“氛围编码中的治理滞后”:尽管AI辅助编码的采用率正在上升,但监管却显著滞后,只有34%的组织对AI生成代码有正式的治理政策。许多团队要么重新利用过时的框架,要么试图临时创建新框架。这种结构性缺失使团队面临可追溯性、代码来源和合规性方面的风险,即使是日常开发工作也可能导致难以发现的下游问题。

最终,报告强调了那些主动建立强大治理基础的组织与那些仍在试图被动应对这些挑战的组织之间日益扩大的差距。随着企业扩大其AI计划,这种“成熟度曲线”正变得越来越明显。那些从一开始就优先考虑治理的公司现在能够更快、更有信心地前进,而其他公司则发现自己处于追赶状态,常常在压力下仓促拼凑政策。随着更多开发工作转移到工程师手中,以及新工具的加入,成熟和新兴治理实践之间的分歧可能会加深。