米政府「AI全振り」計画:深刻なリスクが浮上

Sciencenews

米国政府は、人工知能をその中核機能に深く統合することを目指す、野心的な「AIファースト戦略」に着手しています。7月23日に発表された新しい行動計画に象徴されるこの大きな推進は、連邦機関全体でAIを活用する包括的な転換を示唆しています。国防総省がAnthropic、Google、OpenAI、xAIなどの主要AI企業に2億ドルの契約を授与したことなど、最近のイニシアチブもこのコミットメントを強調しています。特に、イーロン・マスクのxAIは、連邦政府機関が総合サービス局を通じてAI製品を調達するのを容易にするために設計されたプラットフォーム「Grok for Government」を立ち上げました。

この戦略の中心的な柱の一つは、膨大な量の機密政府データの集約です。報告によると、「政府効率化省」として知られる諮問グループは、財務省や退役軍人省を含むさまざまな連邦省庁から、個人情報、健康記録、税務詳細、その他の保護されたデータへのアクセスと統合をすでに開始しています。最終目標は、これら多様な情報を単一の集中データベースに蓄積することです。

効率化への意欲は明らかですが、特に機密情報を伴うこの急速なAIの採用は、潜在的なプライバシーとサイバーセキュリティのリスクについて専門家の間で重大な懸念を引き起こしています。データアクセスに対する厳格な制限などの従来の予防的ガードレールが緩められているように見えるため、これらの懸念は増幅されています。

イリノイ大学アーバナ・シャンペーン校のAIおよびセキュリティ専門家であるBo Li氏は、データ漏洩の差し迫った危険性を強調しています。機密情報を使用してAIモデルがトレーニングまたはファインチューニングされると、意図せずにそれを記憶してしまう可能性があります。たとえば、患者データでトレーニングされたモデルは、病気の有病率に関する一般的なクエリに答えるだけでなく、特定の個人の健康状態、クレジットカード番号、メールアドレス、または自宅の住所を意図せずに明らかにする可能性があります。さらに、そのようなプライベート情報がトレーニングに使用されたり、応答を生成するための参照として使用されたりすると、AIが異なる個人データ間の新しい、潜在的に有害な関連性を推測できるようになる可能性があります。

ジョージタウン大学セキュリティ・新興技術センターのAIおよびサイバーセキュリティ専門家であるJessica Ji氏は、さまざまなソースからのデータを1つの大きなデータセットに統合することは、悪意のあるアクターにとって魅力的な標的となると指摘しています。ハッカーは、複数の個々の機関を侵害する必要がなく、単一の統合されたデータソースを侵害するだけで、前例のない情報宝庫にアクセスできる可能性があります。歴史的に、米国の組織は、氏名や住所などの個人を特定できる情報を、機密性の高い健康状態と意図的にリンクさせることを避けてきました。現在、AIトレーニングのために政府データを統合することは、重大なプライバシーリスクをもたらします。AIシステムが大規模なデータセット、特に金融情報や医療情報を含むデータセット内で統計的関連性を確立する能力は、抽象的でありながらも深刻な市民的自由とプライバシーの課題を提起します。個人は、これらの影響がAIシステムにどのように関連しているかを理解することなく、悪影響を受ける可能性があります。

Li氏は、可能になる具体的なサイバー攻撃についてさらに詳しく説明しています。「メンバーシップ攻撃」により、攻撃者は特定の人物のデータがモデルのトレーニングデータセットに含まれていたかどうかを判断できます。より深刻な「モデル反転攻撃」は、単なるメンバーシップを超えて、攻撃者がトレーニングデータから完全な記録を再構築することを可能にし、個人の年齢、名前、メールアドレス、さらにはクレジットカード番号を明らかにする可能性があります。最も警戒すべき「モデル窃盗攻撃」は、AIモデルのコアコンポーネントまたはパラメーターを抽出することを含み、これにより追加のデータが漏洩したり、悪意のある目的でモデルが複製されたりする可能性があります。

これらの高度なモデルを保護するための努力が進行中ですが、完全な解決策は依然として見つかっていません。Li氏は、「ガードレールモデル」がAIファイアウォールとして機能し、入力と出力の両方で機密情報を識別してフィルタリングできると述べています。もう1つの戦略である「アンラーニング」は、モデルに特定の情報を忘れさせるようにトレーニングすることを目的としています。しかし、アンラーニングはモデルのパフォーマンスを低下させる可能性があり、機密データの完全な消去を保証することはできません。同様に、ガードレールモデルは、進化する攻撃と情報漏洩ベクトルの状況に対抗するために、継続的かつますます高度な開発を必要とします。Li氏が結論付けているように、「防御側には改善が見られますが、まだ解決策ではありません」。

技術的な課題に加えて、組織的およびプロセスに基づくリスクも大きく迫っています。Ji氏は、AIを迅速に採用する推進力がしばしば上層部から来るため、下位レベルのスタッフが潜在的な影響を十分に考慮することなく、システムを迅速に実装するよう途方もないプレッシャーを受けていると強調しています。これにより、データが内部でどのように流通しているかについて、制御と可視性が不足する可能性があります。たとえば、ある機関が従業員による商用AIチャットボットの使用を禁止する明確なポリシーを欠いている場合、従業員は誤って機密コードや内部データをこれらの外部プラットフォームに入力して支援を求める可能性があります。そのようなデータは、チャットボットプロバイダーによって自身のトレーニング目的で取り込まれる可能性があり、目に見えない、制御不能な露出リスクを生み出します。

専門家は一貫してセキュリティを最優先することを推奨しています。Ji氏は、既存のリスク管理プロセスをAIツールの独自の性質に適応させることを助言し、組織がリスクと利益の両方を徹底的に評価する必要があることを強調しています。Li氏は、すべてのAIモデルを基本的な防御メカニズムとしてガードレールと組み合わせる差し迫った必要性を強調しています。さらに、倫理的なハッカーが攻撃をシミュレートして脆弱性を発見する継続的な「レッドチーム演習」は、時間の経過とともに新しい弱点を特定するために不可欠です。米国政府がAIに「全振り」する中で、イノベーションと堅牢なセキュリティおよびプライバシー対策のバランスを取る必要性は、かつてないほど重要になっています。