医疗AI安全:安全采纳的6大核心准则
在临床医生持续短缺和医疗成本不断攀升的背景下,人工智能工具正成为医疗机构引人注目的解决方案。这些技术有望增强医生、护士、IT团队和支持人员的能力,简化日常工作流程并提高效率。然而,AI融入医疗环境对患者数据安全具有重大影响,因此需要采取严谨的实施方法,以保护敏感信息,更重要的是,保障患者的治疗效果。
Kompass Education的联合创始人兼执行董事克拉拉·林·霍金(Clara Lin Hawking)强调,AI安全超越了防火墙或强密码等传统措施。相反,她指出必须全面理解AI部署固有的风险、机遇和局限性,并强调这种意识必须渗透到组织的各个层面。
在医院中确保AI安全的一项基本策略是部署私有或高度受控的AI工具实例。CDW人工智能现场首席技术官皮特·约翰逊(Pete Johnson)提倡内部解决方案,允许临床医生和员工试用AI应用程序,而无需将患者数据暴露给公共平台。或者,组织可以利用亚马逊、微软和谷歌等领先提供商的公共云模型,这些模型通常包含强大的数据隐私协议。约翰逊指出,这些协议通常保证用户提供的数据(例如提示或查询)不会用于重新训练底层AI模型,即使AI程序并非直接托管在组织内部,也能提供一层保护。
除了预防措施,针对潜在安全事件的强有力行动计划至关重要。该计划应详细说明对数据泄露或旨在金融欺诈的广泛网络钓鱼尝试等事件的响应。霍金强调,IT专业人员迫切需要彻底理解这些不断演变的攻击面,并构建全面的框架来应对它们。此类框架必须涵盖IT生态系统的所有方面——硬件、软件、架构——以及旨在减轻这些新兴威胁的明确政策和法规。
随着医疗机构踏上AI之旅,建议采取循序渐进的方法。约翰逊建议,与其将大量敏感数据暴露给新的AI系统,不如从小规模开始,专注于特定、明确定义的问题。例如,使用环境监听技术或智能文档系统,这可以显著减轻医生和临床医生的行政负担,而无需立即整合组织的所有数据资产。
另一项关键的安全措施是强制要求所有AI工具交互使用组织账户。霍金警告不要使用个人电子邮件账户,因为这可能无意中为数据共享创建未经授权的入口点,可能导致敏感信息在未经明确同意或监督的情况下用于模型训练。
此外,一个专门的监督团队对于审查所有AI工具至关重要,无论它们在组织内部的使用地点或方式如何。霍金建议该团队应是多学科的,吸纳来自IT、临床部门甚至患者倡导团体的利益相关者。目标不是通过锁定所有AI来扼杀创新,而是要确保对正在使用哪些工具以及为何使用这些工具有深入的理解,从而培养一种知情和负责任的采纳文化。
最后,全面的风险评估与AI系统全面审计相结合,构成了强大治理的基石。这使得医疗机构能够主动识别潜在的合规风险,并制定适当的政策和程序,以负责任地使用生成式AI和其他高级工具。霍金断言,这种彻底的概览是任何医疗机构建立有效AI治理不可或缺的起点。