欧盟AI法案:新规塑造全球AI创新与信任

Techcrunch

欧盟的《人工智能法案》(通常称为欧盟AI法案)被欧盟委员会描述为全球首个全面的人工智能法律框架。经过多年的发展,这项里程碑式的立法正在欧盟27个成员国逐步生效,影响着4.5亿公民。其影响力超越了欧盟边界,适用于本地和外国公司,涵盖人工智能系统提供商和部署者。例如,该法案将适用于开发简历筛选工具的开发者,以及使用该工具的银行,为他们的人工智能操作建立了统一的法律框架。

欧盟AI法案背后的主要动机是在所有欧盟国家建立一致的人工智能监管环境,防止国家层面出现碎片化的规则。这种统一性旨在促进基于人工智能的商品和服务的跨境自由流动。通过及时实施监管,欧盟旨在为创新创造公平的竞争环境,培养公众对人工智能技术的信任,并可能为新兴公司开辟新机遇。尽管人工智能的广泛应用仍处于相对早期阶段,但该法案对人工智能的伦理和社会影响设定了严格的标准。

欧洲立法者将该框架的主要目标明确为促进“以人为本、值得信赖的人工智能”,同时确保对健康、安全和基本权利的高度保护。这些权利载于《欧盟基本权利宪章》,包括民主、法治和环境保护。该法案还旨在减轻人工智能系统在欧盟内部的有害影响并支持创新。这项雄心勃勃的任务反映了在鼓励人工智能采用和发展、预防危害以及维护环境标准之间取得微妙平衡。

为了协调这些不同的目标,欧盟AI法案采用了基于风险的方法。它将人工智能应用分为不同的风险等级,并施加相应的义务:

  • 不可接受的风险: 少数人工智能用例因其潜在的严重危害而被彻底禁止。

  • 高风险: 某些应用被认定为“高风险”,并受到严格的监管和监督。

  • 有限风险: 被视为“有限风险”的场景面临较轻的义务,确保了相称性。

欧盟AI法案于2024年8月1日开始实施,合规截止日期错开。一般来说,新进入市场的公司比已经在欧盟提供人工智能产品和服务的公司面临更早的合规要求。第一个重要的截止日期是2025年2月2日,重点是强制执行对少数被禁止的人工智能用途的禁令,例如从互联网或闭路电视中无目标抓取面部图像以创建数据库。尽管许多其他条款将陆续生效,但大多数预计将在2026年中期前适用。

一个关键进展发生在2025年8月2日,届时该法案开始适用于“具有系统性风险的通用人工智能(GPAI)模型”。GPAI模型被定义为在大量数据集上训练的、能够执行广泛任务的人工智能模型。“系统性风险”要素指的是潜在的广泛社会危害,例如促进化学或生物武器的开发,或对自主GPAI模型失控的意外问题。在此截止日期之前,欧盟发布了针对GPAI模型提供商的指南,包括Anthropic、Google、Meta和OpenAI等全球主要参与者。然而,与新市场进入者不同,市场上现有模型的公司有时间在2027年8月2日之前实现全面合规。

欧盟AI法案包含一个强有力的处罚机制,旨在“有效、相称且具有威慑力”,即使对于大型国际公司也是如此。虽然具体细节将由各个欧盟国家确定,但该法规概述了罚款的一般原则和阈值,这些罚款根据侵权的风险等级而异。最高罚款保留给违反禁止人工智能应用的,可能高达3500万欧元或前一财政年度全球年度总营业额的7%,以较高者为准。GPAI模型提供商可能面临高达1500万欧元或其年度营业额3%的罚款。

业界遵守的意愿,甚至包括自愿遵守,部分体现在对自愿性GPAI行为准则的参与上,其中包含不使用盗版内容训练模型等承诺。2025年7月,Meta特别宣布决定不签署这项自愿准则。相反,谷歌此后不久确认了签署意向,尽管表达了保留意见。迄今为止的其他签署方包括Aleph Alpha、亚马逊、Anthropic、Cohere、IBM、微软、Mistral AI和OpenAI。然而,签署该准则不一定等同于完全认可其所有含义。

一些科技公司对该法规的某些方面表示强烈反对。谷歌全球事务总裁肯特·沃克(Kent Walker)在一篇博客文章中表达担忧,认为AI法案及其行为准则有“减缓欧洲AI开发和部署”的风险。Meta全球事务首席官乔尔·卡普兰(Joel Kaplan)在领英上更进一步,表示“欧洲在AI问题上走错了路”,并批评该法案的实施是“过度干预”。他认为,行为准则给模型开发者带来了法律不确定性,并包含超出法案原始范围的措施。欧洲公司也表达了担忧;法国AI公司Mistral AI的首席执行官阿瑟·门施(Arthur Mensch)是2025年7月签署一封公开信的欧洲首席执行官之一,敦促布鲁塞尔在欧盟AI法案的关键义务生效前“暂停”两年。

尽管有这些游说努力,欧盟于2025年7月初重申了对既定时间表的承诺,按计划推进2025年8月2日的截止日期。