美国各州率先监管AI,联邦不作为下填补空白
在联邦政府缺乏全面监管的情况下,美国各州立法机构已成为制定人工智能技术相关法规的主要“战场”。这种分散式方法在国会提出的暂停州级人工智能监管的动议被果断否决后,获得了进一步的动力,有效地为各州继续应对新兴技术格局扫清了道路。事实上,到2025年,美国每个州都提出过某种形式的人工智能相关立法,其中一些州已经颁布了法律。人工智能的四个特定方面尤其引起了州立法者的关注:其在政府中的应用、医疗保健应用、面部识别技术以及生成式人工智能的兴起。
人工智能在公共部门的负责任部署和监督尤为关键。预测性人工智能利用统计分析生成预测,已经改变了众多政府职能,从确定社会服务资格到为刑事司法判决和假释提供建议。然而,算法决策的广泛采用带来了显著的隐性成本,包括算法危害(例如种族和性别偏见)的潜力。认识到这些风险,州立法机构已出台专门针对公共部门人工智能使用的法案,强调透明度、健全的消费者保护以及对部署风险的明确承认。例如,科罗拉多州的《人工智能法案》强制要求参与重大决策的人工智能系统的开发者和部署者遵守透明度和披露要求。蒙大拿州的新“计算权”法案要求人工智能开发者为集成到关键基础设施中的系统采用风险管理框架——一种处理安全和隐私的结构化方法。此外,一些州,如纽约州通过其SB 8755法案,已着手建立具有监督和监管权限的专门机构。
医疗保健领域也出现了大量立法活动,仅在2025年上半年就有34个州提出了超过250项与人工智能相关的医疗法案。这些法案通常分为四类:对人工智能系统开发者和部署者的披露要求;旨在防止不公平歧视并确保有途径对人工智能驱动的决策提出异议的消费者保护措施;规范保险公司使用人工智能进行医疗审批和支付的法规;以及规范临床医生在患者诊断和治疗中使用人工智能的规则。
面部识别和监控技术带来了独特的隐私挑战和偏见风险,特别是考虑到美国长期以来保护个人自主权免受政府干预的法律原则。面部识别软件广泛应用于预测性警务和国家安全领域,已被证明对有色人种存在偏见。计算机科学家乔伊·布奥拉姆维尼(Joy Buolamwini)和蒂姆尼特·格布鲁(Timnit Gebru)的一项开创性研究显示,此类软件识别深色面孔的准确率显著较低,突显了对黑人个体和其他历史上处于劣势的少数民族的深刻挑战。这种偏见通常源于训练数据的组成以及开发这些算法的团队缺乏多样性。到2024年底,美国已有15个州颁布法律,以减轻面部识别可能造成的危害,其中一些法规要求供应商发布偏见测试报告并详细说明其数据管理实践,同时强制要求在应用这些技术时进行人工审查。这些偏见的现实后果是显而易见的,例如2023年波尔沙·伍德拉夫(Porcha Woodruff)仅因有缺陷的面部识别技术而被错误逮捕的案例。
生成式人工智能的普遍传播同样引起了州立法者的担忧。犹他州的《人工智能政策法案》最初要求,当生成式人工智能系统用于与询问人工智能参与的个人互动时,必须明确披露,尽管后来范围缩小到涉及建议或敏感信息收集的互动。去年,加利福尼亚州通过了AB 2013法案,这是一项生成式人工智能法案,强制开发者在其网站上公开披露用于训练其人工智能系统的数据信息,包括“基础模型”——在海量数据集上训练的、无需进一步训练即可适应各种任务的人工智能模型。鉴于人工智能开发者历来对其训练数据讳莫如深,此类立法可以通过促进更大的透明度,赋能其内容被用于训练人工智能模型的版权所有者。
在缺乏统一的联邦框架的情况下,各州通过自身的立法努力,积极尝试弥合监管空白。尽管这种新兴的法律拼凑可能会使人工智能开发者的合规性复杂化,但它提供了关于隐私、公民权利和消费者保护至关重要且急需的监督。然而,这种由州主导的进展面临一个潜在障碍:特朗普政府于2025年7月23日宣布的“人工智能行动计划”。该计划明确指出:“联邦政府不应允许将人工智能相关的联邦资金导向那些拥有繁重人工智能法规的州。”这项指令可能会阻碍各州监管人工智能的努力,迫使它们权衡基本法规与失去重要联邦资金的风险。