米国各州、連邦政府の不作為を尻目にAI規制を主導

Arstechnica

包括的な連邦法がない中、米国各州の議会は人工知能技術に関する規制を確立する主要な舞台となっている。この分散型アプローチは、州レベルのAI規制の一時停止を提案する議会の法案が大幅に頓挫した後、さらに勢いを増し、各州が独自の枠組みを開発し続ける道を開いた。実際、2025年には全50州が様々なAI関連法案を提出し、そのうちいくつかはすでに立法化されている。

州レベルの規制努力は、主にAIの4つの重要な側面を中心に集約されている。すなわち、政府での利用、医療分野での応用、顔認識技術、そして急成長する生成AIの分野である。

AIの監督と責任ある展開は、公共部門において特に重要である。予測型AIは、統計分析を活用して予測を行い、社会サービスの適格性評価から刑事司法の判決や仮釈放に関する提言まで、数多くの政府機能を変革してきた。しかし、アルゴリズムによる意思決定の広範な採用は、人種的・性別的偏見などのアルゴリズムによる害の可能性を含む、実質的な隠れたコストを伴う。これらのリスクを認識し、州議会は公共部門でのAI利用を特にターゲットとした法案を提出し、透明性、消費者保護、展開リスクの特定を強調している。コロラド州の「人工知能法」のように、一部の州では、重大な意思決定に関わるAIシステムの開発者および展開者に透明性と開示要件を義務付けている。一方、モンタナ州の新しい「計算する権利」法は、AI開発者に対し、重要インフラに不可欠なシステムについて、堅牢なリスク管理フレームワーク(セキュリティとプライバシーに対処するための構造化された方法)を採用することを義務付けている。ニューヨーク州などの他の州は、監督および規制権限を提供する専門機関を設立している。

医療分野でも、活発な立法活動が見られる。2025年上半期だけで、34州が250以上のAI関連医療法案を提出し、これらは通常4つのカテゴリーに分類される。透明性に焦点を当てた法案は、AIシステム開発者および展開組織に対する開示要件を定義している。消費者保護法案は、AIシステムによる差別的行為を防止し、ユーザーがAI主導の決定に異議を唱える手段を確保することを目指している。また、保険会社による医療承認および支払いにおけるAIの利用についても立法で対処されており、その他の法案は、臨床医による患者の診断および治療における技術の応用を規制している。

顔認識および監視技術は、特に米国における、政府の干渉に対する個人の自律性を擁護する長年の法的原則の文脈において、重大なプライバシーの課題と偏見のリスクをもたらす。予測型警察活動や国家安全保障で一般的に使用される顔認識ソフトウェアは、有色人種に対して偏見を示すことが実証されており、市民的自由への懸念を引き起こしている。コンピュータ科学者のジョイ・ブオラムウィニとティムニット・ゲブルによる先駆的な研究は、このようなソフトウェアが暗い顔を正確に識別する可能性が著しく低いことを強調した。偏見は、これらのアルゴリズムの訓練データにも浸透する可能性があり、開発チーム自体の多様性の欠如によって悪化することが多い。2024年末までに、米国では15州が顔認識による潜在的な危害を軽減するための法律を制定しており、これらの規制には、ベンダーに偏見テストレポートの公開、データ管理慣行の詳細、およびこれらの技術の適用における人間によるレビューの確保を義務付ける要件がしばしば含まれている。

生成AIの広範な採用も、多くの州で立法上の注目を集めている。ユタ州の「人工知能政策法」は当初、個人および組織に対し、質問された場合にインタラクション中のAI使用を開示することを義務付けていたが、その範囲は後に助言や機密情報の収集を伴うインタラクションに狭められた。昨年、カリフォルニア州はAB 2013法案を可決した。これは、開発者に対し、基盤モデルを含むAIシステムの訓練に使用されたデータに関する情報をウェブサイトで公開することを義務付ける生成AI法である。これらの基盤モデルは、非常に大規模なデータセットで訓練され、追加の訓練なしに幅広いタスクに適応できるAIモデルである。AI開発者は歴史的に訓練データの開示に消極的であったため、このような立法は、AI訓練にコンテンツが使用される著作権所有者を助ける可能性があり、切望されている透明性を提供する可能性がある。

包括的な連邦枠組みがない中、各州は独自の立法イニシアチブでこの規制の空白を埋めるために介入してきた。このような新たな法律の寄せ集めは、AI開発者のコンプライアンス努力を複雑にするかもしれないが、多くの観察者は、州レベルでの関与がプライバシー、市民権、消費者保護にとって極めて重要かつ必要な監督を提供すると主張している。しかし、この分散型の進歩は潜在的な逆風に直面している。トランプ政権が2025年7月に発表した「AI行動計画」は、連邦のAI関連資金は「負担の大きい」AI規制を持つ州に振り向けられるべきではないと述べた。この姿勢は、AIを規制しようとする州の努力を妨げ、州に不可欠な連邦資金を失うリスクと本質的な規制を天秤にかけることを強いる可能性がある。