从影子AI到可信AI:医疗行业如何构筑人工智能的安全未来

文章探讨了医疗保健行业如何应对"影子AI"(员工未经批准使用AI工具)的挑战。通过佛蒙特大学健康网络(UVM Health)CISO的实践经验,分享了通过启用而非封锁、建立数据防泄漏、开展教育以及设立AI治理委员会等策略,在保障敏感数据和患者隐私的前提下,安全、负责任地推动AI创新,最终将AI应用于提升临床文档效率和护理支持等实际场景。

引言

以ChatGPT为代表的人工智能(AI)工具正在以前所未有的速度颠覆各行各业,医疗保健领域也不例外。这种快速应用带来了挑战,尤其是“影子AI”——即员工未经批准、不受管理地使用AI工具。在信任、隐私和安全至关重要的医疗保健领域,其风险极高。

当组织遭遇“影子AI”的突袭

AI的采用往往始于不易察觉之处。员工听说像ChatGPT这样的工具后开始自行尝试。起初只是简单的好奇心,但很快发展为影子AI——即未经审查、缺乏监督或保障措施地使用AI工具。

对Nate和他在UVM Health的团队来说,这个发现令人担忧。通过使用Zscaler日志追踪活动,他们发现ChatGPT及类似工具在各个部门被使用了数千次。不仅仅是营销团队,临床医生、住院医生和IT员工也在将敏感的医疗保健环境信息输入AI工具。

这种影子AI活动的激增提出了一个在各行业都会引起共鸣的挑战:当创新的速度超过了您保障其安全的能力时,如何引入审慎的治理?

“在我们医疗系统中发现影子AI令人震惊,” Nate回忆道。“完全封锁它不是一个可持续的解决方案。我们必须找到一种方法,在保护敏感数据并赢得员工信任的同时,实现安全的探索。”

正确的方法:启用,而非封锁

面对影子AI,许多组织的反应是完全禁止访问这些工具,导致员工感到沮丧,并常常迫使他们寻找变通办法。UVM Health则选择了一条完全不同的道路——促进受控的实验。

这个决定具有深刻的战略性。AI在医疗保健领域有望彻底改变患者护理,但如果没有基本的AI素养,员工将来将无法评估和利用专为特定目的构建的AI工具。UVM Health的方法是在创新与安全之间取得平衡。以下是他们成功的做法:

  • 数据防泄漏: 该医疗系统实施了控制措施,以防止患者数据被输入到像ChatGPT这样的公共AI平台,从而避免机密泄露。
  • 教育宣传活动: 他们制定了指导材料,帮助员工了解哪些场景适合使用AI(以及哪些不适合)。道德考量、合规提醒和风险警告都是此培训的一部分。
  • 主动提示: 使用AI工具的用户会遇到一个提示页面,提醒他们负责任地使用AI,并提供清晰的链接指向更详细的使用指南。

通过启用安全实验,UVM Health避免了扼杀好奇心,同时确保了敏感信息的安全。或者正如Nate所说:“我们创造了一个环境,让员工不必隐藏他们的使用行为;相反,我们为他们提供了探索AI所需的防护栏。”

治理:信任的基石

治理是将影子AI转变为安全、可信工具的下一个逻辑步骤。UVM Health成立了AI治理委员会,在采用前评估AI工具,确保风险得到缓解的同时仍能推动创新。独特的是,该委员会的架构侧重于协作,而非IT主导的命令。其成员包括:

  • 临床领导(通过首席护理官和首席健康信息官代表)
  • 网络安全和IT相关方
  • 道德、隐私和法律专家
  • 市场营销和传播部门

“治理不是说‘不’。它是为组织安全创新提供所需的结构,” Nate解释道。“通过收集各部门的见解,我们能够建立对AI工具的认同,并确保每个潜在风险——无论是安全、道德还是法律风险——都得到解决。”

治理团队还通过明确其流程来培养信任文化。打破临床人员和技术人员之间的隔阂,确保了该委员会不仅仅是另一个“IT安全团队”,而是一个支持全系统创新的资源。

AI实践:提升患者护理水平

在影子AI得到控制后,UVM Health随后实施了正在改变医疗服务提供的AI工具。例如:

  • 用于临床文档的智能听写AI: AI倾听医患咨询,生成供医生审阅的草稿笔记。这让临床医生能够专注于患者,而非键盘。
  • AI支持的护理: 工具监测患者状况,如跌倒风险或褥疮,并向护理人员发送警报,确保及时采取预防措施。

这些工具展示了AI如何减轻临床医生的认知负荷,使他们回归以患者为中心的护理,并让医疗保健提供者能够更高效地工作,而不会牺牲信任或监督。

为未来做好准备

尽管当今医疗保健AI的关注点集中在辅助人类的工具上,但Nate强调了为下一阶段——自主AI——做好准备的必要性。这是指人工智能进化到能够自主决策的阶段,这可能带来巨大价值,但也伴随着重大风险。

诸如“提示注入”(即AI输出可能被恶意操控)等威胁需要主动的解决方案。Nate将此阶段比作互联网的早期。“我们不希望AI重蹈未受保护Web应用的覆辙,”他解释道。“AI现阶段需要防护栏,以避免未来漏洞被利用。”

组织需要像对待人类用户一样对待自主AI:定义访问级别、监控滥用行为并持续验证安全协议。UVM Health正致力于确保这些保护措施在AI在其工作流程中完全自主之前就已准备就绪。

点播收听完整的广播节目,请访问Healthcare Now Radio。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计