Anthropic、Claude AI安全規則を強化:CBRN兵器開発を禁止

Theverge

人工知能の安全性に対する懸念が高まる中、AnthropicはClaude AIチャットボットの利用ポリシーを更新するという重要な一歩を踏み出しました。静かに発効した改訂ガイドラインは、特に危険な兵器の開発に関して、より厳格な禁止事項を導入しており、同時に、ますます自律的になるAIツールがもたらす増大するリスクにも対処しています。

Anthropicが変更の公開概要で明示的に強調しなかったものの、重要な改訂の一つは、Claudeを生物、化学、放射性、または核(CBRN)兵器の開発に使用することを明確に禁止した点です。同社の以前のポリシーは、Claudeを「人間の生命に危害または損失をもたらすことを目的とした兵器、爆発物、危険物、またはその他のシステムを製造、変更、設計、販売、または配布する」ために使用することを広範に禁止していましたが、更新版ではCBRNカテゴリに加えて「高出力爆発物」が明確に含まれるようになりました。この細分化は、AIが壊滅的な損害に寄与するのを防ぐという業界の焦点が高まっていることを強調しており、Anthropicが5月にClaude Opus 4モデルのローンチと同時に導入した「AI安全レベル3」のような保護策に基づいています。これは、システムを操作に対する耐性を高め、そのような危険な試みを支援する可能性を低くするように設計されています。

兵器開発にとどまらず、Anthropicは「自律型AIツール」、つまり自律的に行動できるシステムが提示する新たな課題にも直面しています。同社は、「コンピューター利用」のようにClaudeがユーザーのコンピューターを制御できる機能や、AIを開発者のターミナルに直接統合するツールである「Claudeコード」に関連するリスクを具体的に認識しています。Anthropicは、これらの強力な機能が「大規模な悪用、マルウェア作成、サイバー攻撃の可能性を含む新たなリスク」を導入すると指摘しています。

これらの脅威を軽減するため、更新されたポリシーには「コンピューターまたはネットワークシステムを侵害しない」という新しいセクションが組み込まれています。このセグメントは、Claudeを利用してシステム脆弱性を発見または悪用すること、悪意のあるソフトウェアを作成または配布すること、または正当なユーザーのネットワークアクセスを妨害することを目的とするサービス拒否攻撃のためのツールを開発することに対して明確な規則を定めています。これらの追加は、サイバーセキュリティ領域におけるAIの兵器化の可能性に対する積極的な姿勢を反映しています。

より微妙な調整として、Anthropicは政治的コンテンツに関するスタンスも洗練させました。政治キャンペーンやロビー活動に関連するすべてのコンテンツを包括的に禁止するのではなく、同社は今後、「民主的プロセスを欺いたり混乱させたりするもの、または有権者やキャンペーンのターゲティングに関わるもの」に限り、Claudeの使用を禁止します。これは、操作のための悪用に対する厳格な禁止を維持しつつ、より一般的な政治的議論を許可する方向への転換を示しています。さらに、Anthropicは、「高リスク」のユースケース(Claudeが個人や顧客に推奨を提供するシナリオ)に対する要件は、消費者向けアプリケーションにのみ適用され、企業間取引には適用されないことを明確にし、商用展開の柔軟性を高めています。

これらの包括的なポリシー更新は、Anthropicが高度なAIの複雑な倫理的および安全保障上の状況を乗り越えるための継続的な努力を強調しており、イノベーションと、ますます複雑になるデジタル世界での悪用防止へのコミットメントを両立させています。