欧盟AI法案新执行阶段启动,通用AI模型面临重大影响

Datanami

欧盟具有里程碑意义的《人工智能法案》已进入关键的新执行阶段,这将深刻影响企业如何设计和部署与欧洲居民互动或被其使用的人工智能系统。这标志着这项雄心勃勃的立法自2021年由欧盟委员会首次提出,并于2024年3月正式批准以来,分阶段实施已满一年。初始阶段于2025年2月开始,明令禁止某些被认为具有不可接受风险的AI应用,例如无差别地抓取互联网或闭路电视馈送中的面部图像。

截至8月2日,第二阶段的执行现已生效,引入了两项关键要求。首先,它强制所有欧盟成员国设立各自的国家主管机构,负责AI系统的通知和监督。其次,也是对全球科技行业影响可能更大的一点,此阶段开始执行针对“通用人工智能”(GPAI)模型的法规。这类模型涵盖了大型语言模型和高级计算机视觉系统等基础AI系统,它们是众多应用构建的基础。

对于通用人工智能模型的提供商而言,《人工智能法案》现在要求提高透明度和问责制。主要规定包括披露训练数据和使用许可。这意味着提供商必须提供用于训练其模型的详细内容摘要,并附带可验证的、来自生成这些训练数据个体的同意证明。正如欧盟委员会发言人托马斯·雷尼尔所强调的:“在欧洲向用户提供的通用人工智能模型所使用的来源必须清晰记录。如果它们受版权保护,作者必须获得报酬,最重要的是,必须征得他们的同意。”此外,对于被认定构成“系统性风险”的通用人工智能模型,提供商必须展示其评估方法,详细说明其风险缓解策略,并报告可能发生的任何严重事件。

这些新规定立即适用于2025年8月2日之后投入生产的任何新的通用人工智能模型。然而,欧盟委员会为谷歌、OpenAI、Meta和Anthropic等美国科技巨头以及欧洲AI公司Mistral等主要参与者已投入生产的现有通用人工智能模型提供了一年的宽限期,之后才对其全面执行。不遵守新法律将面临巨额经济处罚,罚款范围从750万欧元(约合810万美元)或公司营业额的1%起,直至高达3500万欧元(约合3800万美元)或全球收入的7%。这些巨额罚款现已积极生效。

为了促进合规,欧盟委员会上个月发布了《欧盟AI实践准则》,这是一个自愿性框架,旨在指导企业履行其在AI安全、透明度和版权方面的义务。尽管许多知名的美国科技公司和欧洲AI公司已签署了该准则,但有些公司表达了保留意见或明确拒绝。例如,谷歌签署了该准则,但在其博客文章中表达了担忧,称“我们仍然担心《人工智能法案》和准则可能减缓欧洲人工智能的开发和部署。特别是,偏离欧盟版权法、减缓审批的步骤或暴露商业秘密的要求可能会抑制欧洲模型的开发和部署,从而损害欧洲的竞争力。”与此同时,Facebook的母公司Meta明确表示不会签署该实践准则。Meta全球事务负责人乔尔·卡普兰坚称,“欧洲在人工智能方面正走上错误的道路。”

展望未来,《人工智能法案》的下一阶段执行将针对“高风险”AI系统,欧盟委员会将其定义为用于执法、教育、关键基础设施和信用评分等敏感领域的系统。部署这些类型系统的组织在部署前将被要求实施严格的保障措施,包括进行彻底的风险评估以确保不侵犯基本权利、建立健全的监控协议、维护AI系统活动的详细日志,并确保支持人员得到充分培训。欧盟的多阶段方法强调了其建立全面人工智能监管框架的决心,旨在平衡创新与严格的道德和安全标准。