美国各州引领AI监管,联邦迟迟未动
在美国缺乏全面联邦立法的情况下,美国各州立法机构已成为制定人工智能技术法规的主要舞台。这种分散式方法在国会提出的州级AI监管暂停提案遭遇重大挫折后,获得了进一步的动力,有效地为各州继续发展自己的框架扫清了道路。事实上,所有50个州都在2025年推出了各种与AI相关的法案,其中几个州已经颁布了立法。
州级监管工作主要围绕AI的四个关键方面:政府使用、医疗保健应用、面部识别技术以及新兴的生成式AI领域。
AI在公共部门的监督和负责任部署尤为重要。预测性AI利用统计分析进行预测,已改变了许多政府职能,从评估社会服务资格到为刑事司法判决和假释提供建议。然而,算法决策的广泛采用带来了巨大的隐性成本,包括算法危害的潜力,例如种族和性别偏见。认识到这些风险,州立法机构已提出了专门针对公共部门AI使用的法案,强调透明度、消费者保护和部署风险的识别。一些州,如科罗拉多州及其《人工智能法案》,强制要求参与重大决策的AI系统开发者和部署者遵守透明度和披露要求。蒙大拿州的新“计算权”法律则要求AI开发者对关键基础设施中不可或缺的系统采用稳健的风险管理框架——一种解决安全和隐私问题的结构化方法。其他州,如纽约州,已设立专门机构提供监督和监管权限。
医疗保健领域也出现了大量立法活动。仅在2025年上半年,就有34个州提出了250多项与AI相关的医疗法案,通常分为四类。以透明度为重点的法案定义了AI系统开发者和部署组织的披露要求。消费者保护法案旨在防止AI系统中的歧视性做法,并确保用户有途径对AI驱动的决策提出异议。立法还涉及保险公司使用AI进行医疗审批和支付,而其他法案则规范了临床医生在诊断和治疗患者时该技术的应用。
面部识别和监控技术带来了重大的隐私挑战和偏见风险,尤其是在美国长期以来倡导个人自主权不受政府干涉的法律原则背景下。面部识别软件常用于预测性警务和国家安全,但已明显表现出对有色人种的偏见,引发了对公民自由的担忧。计算机科学家Joy Buolamwolini和Timnit Gebru的开创性研究强调,此类软件识别深色面孔的准确率显著较低。偏见也可能渗透到这些算法的训练数据中,而开发团队内部缺乏多样性往往会加剧这种偏见。截至2024年底,美国已有15个州颁布了法律,以减轻面部识别的潜在危害,这些法规通常包括要求供应商发布偏见测试报告、详细说明数据管理实践,并确保在应用这些技术时进行人工审查。
生成式AI的广泛采用也引起了许多州的立法关注。犹他州的《人工智能政策法案》最初要求个人和组织在被询问时披露AI使用情况,尽管其范围后来缩小到涉及建议或敏感信息收集的互动。去年,加利福尼亚州通过了AB 2013法案,这是一项生成式AI法律,强制要求开发者在其网站上公布用于训练其AI系统(包括基础模型)的数据信息。这些基础模型是基于超大数据集训练的AI模型,无需额外训练即可适应广泛的任务。鉴于AI开发者历来不愿披露其训练数据,此类立法可以提供急需的透明度,可能有助于其内容被用于AI训练的版权所有者。
在缺乏全面的联邦框架的情况下,各州已介入,通过自己的立法举措填补这一监管空白。虽然这种新兴的法律拼凑可能会使AI开发者的合规工作复杂化,但许多观察家认为,州级参与为隐私、公民权利和消费者保护提供了至关重要且必要的监督。然而,这种分散式进展面临潜在的逆风。特朗普政府于2025年7月宣布的“AI行动计划”指出,联邦AI相关资金不应流向那些拥有“繁重”AI法规的州。这种立场可能会阻碍各州监管AI的努力,迫使各州权衡基本法规与失去重要联邦资金的风险。