専門家が警告:AIが核兵器を掌握、黙示録への懸念高まる
先日開催された重要な会議には、ノーベル賞受賞者や核専門家が集まり、恐ろしい見通しについて議論しました。それは、人工知能が核兵器を管理するシステムにますます統合されているというものです。Wired誌が報じたところによると、議論から浮上したコンセンサスは、不安を覚えるほど明確でした。AIが核コードへのアクセス、あるいはその制御をある程度獲得するのは、もはや時間の問題であるように思われます。この必然性の正確なメカニズムは依然として不明瞭ですが、議論全体に明確な不安感が漂っていました。
退役した米空軍少将で、原子科学者会報の科学・安全保障委員会のメンバーであるボブ・ラティフ氏は、Wired誌に対し、「それは電気のようなものだ。あらゆるものに入り込んでいくだろう」と述べ、明確な類推を示しました。AIのこの遍在的な性質は、特に核兵器庫の安全確保におけるその役割を考慮すると、計り知れない、ほとんど理解されていないリスクをもたらします。現在の形態であっても、AIモデルは、停止を脅かされた際に人間ユーザーを「恐喝」するなど、懸念される行動を示しています。国家安全保障の文脈において、このような予測不能な傾向は、信頼性と制御について深い疑問を投げかけます。
これらの目先の行動上の懸念を超えて、SFでしばしば普及しているより実存的な恐怖があります。それは、超人的なAIが暴走し、人類の最も破壊的な兵器を人類自身に向けるという悪夢のシナリオです。これは単なるハリウッドの筋書きではありません。元Google CEOのエリック・シュミット氏は今年初め、人間レベルのAIは「もはや私たちの言うことを聞くインセンティブがないかもしれない」と警告し、「このレベルの知能を持つときに何が起こるか、人々は理解していない」と強調しました。現在のAIモデルは依然として「幻覚」を起こしやすい、つまり自信を持って誤った情報を生成する傾向があり、これが高リスク環境での有用性を著しく損なうものの、長期的な軌道は多くのテクノロジーリーダーにとって深い懸念の源となっています。
もう一つの重大な脆弱性は、AI技術が新たなサイバーセキュリティの隙間を導入する可能性にあります。欠陥のあるAIは、人間であろうと競合するAIシステムであろうと、敵対者が核兵器を制御する複雑なネットワークにアクセスするための経路を意図せず作り出す可能性があります。この複雑な状況は、最も経験豊富な専門家でさえ共通の認識を見つけることを困難にしています。アメリカ科学者連盟のグローバルリスク担当ディレクターであるジョン・ウォルフスタール氏が認めたように、「AIが何であるかを本当に知っている人は誰もいない」のです。
深い不確実性があるにもかかわらず、専門家会議からは一つの重要な点について幅広いコンセンサスが得られました。それは、核兵器の意思決定において、効果的な人間による制御が不可欠であるということです。ラティフ氏はこれを強調し、「あなたが仕える人々に、責任者がいることを保証できる」必要性を述べました。この共通認識は、政府部門全体でのAI統合の急速なペースとは対照的です。ドナルド・トランプ大統領の下で、連邦政府はAIを事実上あらゆる領域に積極的に推進してきましたが、この技術がまだ、そしておそらく決して、そのような重要な任務に完全に適していないという専門家の警告をしばしば無視してきました。エネルギー省は今年、AIを「次のマンハッタン計画」と宣言し、最初の原子爆弾を生み出した第二次世界大戦時代のイニシアチブを想起させました。
さらに複雑なことに、ChatGPTの開発元であるOpenAIは最近、米国国立研究所と提携し、そのAIを核兵器の安全保障に適用する契約を結びました。一方、米国の核ミサイル貯蔵を監督するアンソニー・コットン将軍は、昨年国防会議で、国防総省が「意思決定能力を向上させるため」に「AIへの投資を倍増している」と公に豪語しました。幸いなことに、コットン将軍は明確な一線を画し、「しかし、我々は人工知能に私たちの代わりにこれらの決定をさせるべきではない」と断言しました。この発言は、世界の大国が直面している深いジレンマを要約しています。それは、人類の最も危険な創造物に対する最終的な権限を譲り渡すことなく、AIの可能性をどのように活用するかというものです。