医療サイバーセキュリティにおけるAI:リスクと戦略を乗り越える

Feedburner

人工知能、特に生成AIプラットフォームの台頭により、AIは専門的な技術応用から一般消費者への広範な利用へと急速に移行しました。ピュー・リサーチ・センターの調査によると、2025年初頭までに、30歳未満の米国成人の58%がChatGPTを利用しており、2023年の33%から大幅に増加しています。この広範な普及は、正式な組織ポリシーがなくても、従業員がすでに生成AIサービスに精通しているか、あるいは利用している可能性が高いことを意味し、多くの場合、公開されているツールに依存しています。このシナリオは、組織にとって相当なデータプライバシーとセキュリティのリスクをもたらします。

この課題をさらに複雑にするのは、サイバー犯罪者もこれらの高度なAIツールにアクセスでき、それらを活用してより巧妙な攻撃を画策していることです。例えば、ニューヨーク大学はキャンパスコミュニティに対し、AI支援によるソーシャルエンジニアリングの脅威に注意するようガイダンスを発行しています。AIが各業界でますます普及するにつれて、サイバーセキュリティへのその深い影響を理解することは極めて重要であり、特にこの進化する状況を乗り越える医療機関にとっては不可欠です。

諸刃の剣:サイバーセキュリティにおけるAIの懸念事項

サイバーセキュリティの専門家は、AI関連のセキュリティ上の考慮事項を大まかに3つの視点に分類しています:AIを活用したセキュリティ、AIのためのセキュリティ、そしてAIからのセキュリティです。それぞれが組織に独自の課題を提示します。

  • AIを活用したセキュリティ(Security with AI): 多くの最新のセキュリティプラットフォームは、脅威検出と対応を強化するためにAIを搭載した機能を組み込んでいます。組織にとっての主な課題は、既存のインフラストラクチャと特定のニーズに効果的に統合され、具体的なセキュリティ上の利点を提供するソリューションを見極めることです。

  • AIのためのセキュリティ(Security for AI): 医療分野では、仮想看護プログラムにおけるコンピュータビジョンから、臨床医の管理業務を支援するチャットボットまで、AIのユースケースが数年前から試行され、展開されてきました。これらのアプリケーションには厳格な保護措置が求められます。米国国立標準技術研究所(NIST)は、悪意のあるアクターがAIシステムを意図的に操作して誤動作を引き起こすリスクについて警告しており、AIシステム自体を保護することの極めて重要な必要性を強調しています。

  • AIからのセキュリティ(Security from AI): おそらく最も差し迫った懸念は、サイバー犯罪者がAIを兵器化する可能性です。2024年のISC2の調査では、サイバーセキュリティ専門家がAIを利用した誤情報の拡散に深く懸念を抱いており、ディープフェイク、偽情報キャンペーン、ソーシャルエンジニアリング攻撃が懸念事項のトップに挙がっています。今年初めには、YouTubeがCEOのAI生成クリップを含むフィッシングメールについて警告を発し、AIを利用した詐欺の具体的な脅威を示しました。

AIを活用してサイバーセキュリティ防御を強化する

固有のリスクにもかかわらず、AIはサイバーセキュリティを強化するための大きな利点も提供します。1,000人以上のサイバーセキュリティ専門家を対象とした同じISC2の調査では、82%がAIが業務効率を向上させると回答しました。大多数は、ユーザー行動パターンの分析、ネットワークトラフィックの監視、脅威の検出など、時間のかかる低価値の機能をAIが処理するのに優れていると予想しています。

この能力は、臨床部門だけでなくサイバーセキュリティチーム内でも、継続的な人員不足に苦しむ医療機関にとって特に重要です。規模や予算の制約によっては、一部の医療システムでは、継続的な24時間体制のセキュリティ監視に必要なリソースが不足している場合があります。このようなシナリオでは、自動化されたプロセスやマネージドサービス(多くの場合AIによって強化されている)が重要なサポートを提供し、限られた内部リソースでも堅牢なセキュリティ監視を可能にします。

最終的に、これらの新しい技術とプロセスがより普及するにつれて、医療機関にとって強力なAIおよびデータガバナンスフレームワークを確立することが最も重要になります。臨床チームが患者ケアのために協力するように、組織はパートナーと協力して包括的なAIおよびセキュリティ戦略を策定することで、多分野にわたるアプローチを育み、回復力のある安全なデジタル環境を確保できます。