AIと核兵器:統合は避けられないが、その影響は不透明
核兵器の専門家たちは、人工知能(AI)が間もなく核兵器システムに統合されることをますます確信していますが、この開発の正確な影響は依然として不明確な点が多いです。このコンセンサスは、7月中旬にシカゴ大学で開催された会議で生まれました。この会議には、ノーベル賞受賞者、主要な科学者、元政府高官、核戦争を専門とする退役軍人らが集まりました。2日間の非公開セッションの目的は、これらの影響力のある人々に世界で最も破壊的な兵器について情報を提供し、最終的に核紛争を回避するための政策提言を世界の指導者に向けて策定するよう導くことでした。
AIは議論の中心的な話題でした。核軍縮研究で知られるスタンフォード大学のスコット・サガン教授は、記者会見で「私たちは、人工知能と新興技術が日常生活だけでなく、私たちが生きる核の世界にも影響を与える新しい時代に入っています」と述べました。この発言は、AIと核兵器の融合が避けられないという専門家間の広範な信念を反映しています。元米空軍少将で、原子科学者会報の科学・安全保障委員会のメンバーであるボブ・ラティフ氏は、AIを電気に例え、「あらゆるものに入り込むだろう」と述べました。ラティフ氏は、毎年恒例の終末時計の設定にも関与しています。
しかし、AIと核兵器に関する議論は、根本的な曖昧さによって複雑化しています。不拡散専門家であり、米国科学者連盟のグローバルリスク担当ディレクターであるジョン・ウォルフスタール氏は、「誰もAIが何であるかを本当に知らない」と指摘します。スタンフォード大学の教授で終末時計の元メンバーであるハーブ・リン氏もこの意見に同調し、「AIに核兵器の制御を与えるとはどういう意味か? [コンピューターチップ]に核兵器の制御を与えるとはどういう意味か?」と疑問を呈しました。彼は、この議論が大規模言語モデル(LLM)の優位性によって大きく形作られてきたと付け加えました。
これらの不確実性にもかかわらず、核専門家の間では一つの重要な点でコンセンサスがあります。それは、ChatGPTやGrokのような消費者向けLLMが近い将来に核発射コードにアクセスできるようになるとは誰も考えていないということです。ウォルフスタール氏は、専門家が核問題に関して多様な「神学的」見解を持っている一方で、「核兵器の意思決定に対する効果的な人間の制御」を求める点で一致していると述べました。
それにもかかわらず、最高権力層内でのLLMの他の潜在的な応用に関して懸念が残っています。ウォルフスタール氏は、大統領が過去の発言や著作を分析することで、プーチンや習近平のような敵対者の行動を予測するのに役立つインタラクティブなコンピューターシステムの提案を聞いたと語りました。彼はそのようなシステムの信頼性に疑問を呈し、「プーチンが言ったり書いたりしたことを信じているとどうしてわかるのか?…それは検証できない仮定に基づいているだけだ」と述べました。彼はまた、そのようなツールを開発している人々が、大統領の意思決定環境を完全に把握しているかについても懐疑的な見方を示しました。
米軍はすでに核作戦におけるAIの役割を探っています。昨年、米国の核戦力を統括する空軍大将アンソニー・J・コットンはAI導入の重要性について語り、核戦力が「指導者が複雑で時間的制約のあるシナリオに対応できるよう、人工知能またはAI対応の人間主導の意思決定支援ツールを開発している」と述べました。
ウォルフスタールの主な懸念は、暴走したAIが核戦争を開始することではなく、核指揮統制システムの一部を自動化することによって生じる脆弱性です。彼は、そのような自動化が敵対者によって悪用されたり、人間が理解しにくいデータや推奨事項を生成し、壊滅的な決定につながる可能性があることを恐れています。
核兵器の発射は、早期警戒レーダー、衛星、その他のコンピューターシステムの複雑なネットワークを含む非常に複雑なプロセスであり、すべて人間によって監視されています。例えば、米国の核発射には、2人の人間が同時にサイロで鍵を回すなど、複数の人間の行動が必要です。プロセス全体は、数多くの人間の意思決定の集大成です。
AIがこのプロセスの一部を引き継ぐ可能性は、重要な問題を提起します。人間ではなくAIが早期警戒レーダーを監視する場合、何が起こるのでしょうか? 米国の核政策では、核攻撃を確認するために「二重現象論」が必要とされており、攻撃は衛星システムとレーダーシステムの両方で検証されなければならないことを意味します。ウォルフスタール氏は、この段階ではAIがこれらの確認現象の一つとして機能することはできないと主張します。これは、多くのAIシステムの「ブラックボックス」的性質(内部の動作が完全に理解されていない)に一部起因しています。専門家は一般的に、そのようなシステムを核の意思決定に統合することは賢明ではないという点で同意しています。
ラティフ氏も、AIシステムが確証バイアスを強化することへの懸念を表明しました。AIが意思決定に大きく影響する場合、「人間の制御」の真の意味は何なのかと彼は心配しています。「私は指揮官でした」と彼は述べました。「自分の決定に責任を持つことがどういう意味か知っています。そして、それが必要なのです…もしジョニーが殺されたら、誰を責めればいいのでしょう?」 AIシステムは、そのプログラミングと訓練データに縛られており、失敗に対して責任を負うことはできず、「自分自身を超えて見る」能力が本質的に限られています。
ハーブ・リン氏は、1983年にソ連防空軍の中佐スタニスラフ・ペトロフが、米国のミサイル発射を示す機械の警報を無視し、それによって潜在的な核戦争を回避したという重要な例を挙げました。ペトロフの判断は、彼の経験と直感(例えば、示されたミサイルの数が少ないこと、コンピューターシステムが新しいこと)に基づいており、機械の明らかな誤りを覆しました。リン氏は、人間が「訓練データ外」のそのような重要な判断を日常的に行うことを期待できるのか疑問を呈します。これは、AIが定義上欠いている能力です。
一方、米国政府はAI開発を優先しており、しばしば新たな軍拡競争という文脈でそれを位置づけています。5月には、エネルギー省がXで「AIは次のマンハッタン計画であり、米国が勝利する」と宣言し、AIの追求を中国との競争に明確に例えました。リン氏はそのような比喩を「ひどい」と感じ、マンハッタン計画には明確で具体的な成功指標(核兵器の爆発)があったのに対し、「AIマンハッタン計画」の成功は依然として定義されていないと指摘しました。