EU AI法期限迫る:プロバイダーは不確実性とイノベーションの壁に直面

Techrepublic

2025年8月2日以降、欧州連合内で事業を行う汎用人工知能(GPAI)モデルのプロバイダーは、EU AI法の主要な規定を遵守する必要があります。これらの要件には、最新の技術文書と訓練データの概要の維持が含まれます。

EU AI法は、AIシステムが市民に与える潜在的な影響に基づいてAIシステムを分類するリスクベースのアプローチを採用し、EU全体でのAIの安全かつ倫理的な使用を確保するように設計されています。しかし、期限が近づくにつれて、AIプロバイダーと法務専門家は、法律の明確性の欠如について重大な懸念を表明しています。彼らは、この曖昧さが、企業が遵守しようとしている場合でも罰則にさらされる可能性があり、一部の要件が特にテクノロジー系スタートアップのイノベーションを妨げる可能性があると主張しています。

法律事務所Proskauerの技術部門のパートナーであるオリバー・ハウリー氏は、これらの問題を強調しています。「理論的には、2025年8月2日は責任あるAIにとっての節目となるはずです」と彼は述べました。「実際には、大きな不確実性を生み出し、場合によっては実際の商業的ためらいを引き起こしています。」

不明確な法規制がAIプロバイダーに課題をもたらす

ハウリー氏は、EUのAIモデルプロバイダーが「解釈の余地が多すぎる」法規制に取り組んでいると指摘します。根底にある原則は達成可能かもしれませんが、高レベルの草案作成が真の曖昧さを導入しています。例えば、この法律はGPAIモデルを「著しい汎用性」を持つと定義していますが、正確な閾値は示されておらず、プロバイダーに訓練データの「十分に詳細な」概要を公開するよう求めています。この曖昧さはジレンマをもたらします。詳細をあまりにも多く開示すると、貴重な知的財産が漏洩したり、著作権紛争を引き起こしたりするリスクがあります。

一部の要件は、非現実的な基準も提示しています。AI行動規範(企業が法に準拠するための自主的な枠組み)は、GPAIモデルプロバイダーに対し、データマイニングをオプトアウトしたウェブサイトを訓練データから除外するよう助言しています。ハウリー氏はこれを「今後も十分に難しい基準であり、遡及的に適用することはなおさら難しい」と表現しています。

さらに、この法律は、誰がコンプライアンスの負担を負うかについて明確ではありません。ハウリー氏は疑問を呈します。「オープンソースモデルを特定のタスクのために微調整した場合、あなたは『プロバイダー』になるのでしょうか?単にホストしたり、ダウンストリーム製品に組み込んだりした場合はどうでしょうか?これは、誰がコンプライアンスの負担を負うかに影響するため重要です。」

オープンソースGPAIモデルのプロバイダーは一部の透明性義務から免除されますが、それらが「システムリスク」をもたらす場合はこの免除は適用されません。そのような場合、安全性テスト、「レッドチーム演習」(脆弱性を特定するための模擬攻撃)、および展開後の監視を含む、より厳格な要件に直面します。しかし、オープンソースの性質上、すべてのダウンストリームアプリケーションを追跡することはほぼ不可能ですが、元のプロバイダーは有害な結果に対して依然として責任を負う可能性があります。

負担の大きい要件とイノベーションへの影響

透明性要件が企業秘密を暴露し、ヨーロッパのイノベーションを阻害する可能性があるという懸念が高まっています。OpenAI、Anthropic、Googleなどの主要企業は自主的な行動規範へのコミットメントを表明していますが、Googleはこれらの懸念を表明しており、Metaは抗議のために公に行動規範への署名を拒否しています。

ハウリー氏は、一部の企業がすでに製品発売を遅らせたり、EU市場でのアクセスを制限したりしているのは、法律の目的に異議があるためではなく、コンプライアンスの経路が不明確であり、不遵守の潜在的なコストが高すぎるためであると指摘しています。広範な文書作成のための社内法務サポートを欠くスタートアップは特に脆弱です。

「初期段階の開発者にとって、法的露出や機能のロールバックのリスクは、投資をEUから完全に引き離すのに十分かもしれません」とハウリー氏は警告します。彼は、この法律の目標は称賛に値するものの、その実施が意図せずして、育成を目指す責任あるイノベーションを減速させる可能性があると示唆しています。これはまた、地政学的な影響も持つ可能性があります。米国政府のAI規制への反対がEUの監督推進と対照的であるため、米国を拠点とするプロバイダーが執行措置に直面した場合、貿易関係が緊張する可能性があります。

バイアスと有害なコンテンツへの限定的な焦点

大幅な透明性要件があるにもかかわらず、この法律には精度、信頼性、または現実世界への影響に関する強制的な閾値がありません。ハウリー氏は、システムリスクモデルでさえ、実際の出力に基づいて規制されるのではなく、その文書の堅牢性に基づいて規制されていると指摘します。「モデルはすべての技術要件を満たすことができる…そして依然として有害またはバイアスのあるコンテンツを生成する可能性があります」と彼は述べています。

2025年8月2日発効の主要な規定

2025年8月2日以降、GPAIモデルのプロバイダーは、以下の5つの主要分野にわたる特定の規則を遵守する必要があります。

  • 通知機関: 高リスクGPAIモデルのプロバイダーは、適合性評価のために「通知機関」と連携する準備をする必要があります。高リスクAIシステムとは、健康、安全、または基本的人権に重大な脅威をもたらすものです。これには、EU規制製品の安全コンポーネントとして使用されるAIや、生体認証、重要インフラ、教育、雇用、法執行などの機密性の高い状況で展開されるAIが含まれます。

  • GPAIモデル: すべてのGPAIモデルプロバイダーは、技術文書、訓練データの概要、著作権遵守ポリシー、ダウンストリーム展開者へのガイダンス、および機能、制限、意図された使用法を概説する透明性措置を維持する必要があります。「システムリスク」をもたらすGPAIモデル(訓練中に10^25浮動小数点演算(FLOPs)を超えるものとして定義され、EU AIオフィスによって指定されたもの。例:OpenAIのChatGPT、MetaのLlama、GoogleのGemini)は、より厳格な義務に直面します。これには、モデル評価、インシデント報告、リスク軽減戦略、サイバーセキュリティ対策、エネルギー使用量の開示、および市場投入後の監視が含まれます。

  • ガバナンス: このセクションでは、EUおよび国内レベルでの規制および執行構造を定義しています。GPAIモデルプロバイダーは、EU AIオフィスや各国当局などの機関と協力して、コンプライアンスの履行、監督要求への対応、リスク監視およびインシデント報告への参加を行う必要があります。

  • 機密保持: 当局がGPAIモデルプロバイダーにデータ要求を行う場合、法的に正当化され、安全に処理され、特に知的財産、企業秘密、ソースコードに関する機密保持保護の対象となる必要があります。

  • 罰則: 不遵守は多額の罰金につながる可能性があります。禁止されているAI慣行(例:人間の行動の操作、社会的スコアリング、公共の場でのリアルタイム生体認証)の違反は、最大3500万ユーロ、または全世界年間総売上高の7%のいずれか高い方の罰則を科される可能性があります。透明性やリスク管理に関連するその他の違反は、最大1500万ユーロ、または売上高の3%の罰金につながる可能性があります。当局に誤解を招く情報や不完全な情報を提供した場合、最大750万ユーロ、または売上高の1%の罰金につながる可能性があります。中小企業およびスタートアップの場合、固定額または割合の低い方が適用されます。罰則は、違反の重大性、影響、協力、および意図を考慮して決定されます。

これらの義務は2025年8月2日に開始されますが、1年間の猶予期間が適用され、不遵守に対する罰則は2026年8月2日まで施行されないことに注意することが重要です。

EU AI法の段階的実施

EU AI法は2024年7月12日に公布され、2024年8月1日に発効しましたが、その規定は段階的に適用されています。

  • 2025年2月2日: 容認できないリスクをもたらすと見なされる特定のAIシステム(例:社会的スコアリング、公共の場でのリアルタイム生体認証監視)が禁止されました。企業はまた、従業員が十分なレベルのAIリテラシーを持っていることを確認する必要があります。

  • 2026年8月2日: 執行権限が正式に開始されます。2025年8月2日以降に市場に投入されたGPAIモデルは、コンプライアンスを満たす必要があります。特定のリストされた高リスクAIシステムの規則も、この日付以降に市場に投入されたもの、またはそれ以降に大幅に修正されたものに適用されます。

  • 2027年8月2日: 2025年8月2日より前に市場に投入されたGPAIモデルは、完全なコンプライアンスを達成する必要があります。EU規制製品の安全コンポーネントとして使用される高リスクシステムも、より厳格な義務を遵守する必要があります。

  • 2030年8月2日: 公共部門組織が使用する高リスクカテゴリに該当するAIシステムは、完全にコンプライアンスを満たす必要があります。

  • 2030年12月31日: 特定のEU大規模ITシステムのコンポーネントであるAIシステムで、2027年8月2日より前に市場に投入されたものは、コンプライアンスに適合させる必要があります。

Apple、Google、Metaなどのテクノロジー大手による、法律の施行を少なくとも2年間延期するよう求める声にもかかわらず、EUはこの要請を拒否しました。