引言
以ChatGPT为代表的人工智能(AI)工具正在以前所未有的速度颠覆各行各业,医疗保健领域也不例外。这种快速应用带来了挑战,尤其是“影子AI”——即员工未经批准、不受管理地使用AI工具。在信任、隐私和安全至关重要的医疗保健领域,其风险极高。
当组织遭遇“影子AI”的突袭
AI的采用往往始于不易察觉之处。员工听说像ChatGPT这样的工具后开始自行尝试。起初只是简单的好奇心,但很快发展为影子AI——即未经审查、缺乏监督或保障措施地使用AI工具。
对Nate和他在UVM Health的团队来说,这个发现令人担忧。通过使用Zscaler日志追踪活动,他们发现ChatGPT及类似工具在各个部门被使用了数千次。不仅仅是营销团队,临床医生、住院医生和IT员工也在将敏感的医疗保健环境信息输入AI工具。
这种影子AI活动的激增提出了一个在各行业都会引起共鸣的挑战:当创新的速度超过了您保障其安全的能力时,如何引入审慎的治理?
“在我们医疗系统中发现影子AI令人震惊,” Nate回忆道。“完全封锁它不是一个可持续的解决方案。我们必须找到一种方法,在保护敏感数据并赢得员工信任的同时,实现安全的探索。”
正确的方法:启用,而非封锁
面对影子AI,许多组织的反应是完全禁止访问这些工具,导致员工感到沮丧,并常常迫使他们寻找变通办法。UVM Health则选择了一条完全不同的道路——促进受控的实验。
这个决定具有深刻的战略性。AI在医疗保健领域有望彻底改变患者护理,但如果没有基本的AI素养,员工将来将无法评估和利用专为特定目的构建的AI工具。UVM Health的方法是在创新与安全之间取得平衡。以下是他们成功的做法:
- 数据防泄漏: 该医疗系统实施了控制措施,以防止患者数据被输入到像ChatGPT这样的公共AI平台,从而避免机密泄露。
- 教育宣传活动: 他们制定了指导材料,帮助员工了解哪些场景适合使用AI(以及哪些不适合)。道德考量、合规提醒和风险警告都是此培训的一部分。
- 主动提示: 使用AI工具的用户会遇到一个提示页面,提醒他们负责任地使用AI,并提供清晰的链接指向更详细的使用指南。
通过启用安全实验,UVM Health避免了扼杀好奇心,同时确保了敏感信息的安全。或者正如Nate所说:“我们创造了一个环境,让员工不必隐藏他们的使用行为;相反,我们为他们提供了探索AI所需的防护栏。”
治理:信任的基石
治理是将影子AI转变为安全、可信工具的下一个逻辑步骤。UVM Health成立了AI治理委员会,在采用前评估AI工具,确保风险得到缓解的同时仍能推动创新。独特的是,该委员会的架构侧重于协作,而非IT主导的命令。其成员包括:
- 临床领导(通过首席护理官和首席健康信息官代表)
- 网络安全和IT相关方
- 道德、隐私和法律专家
- 市场营销和传播部门
“治理不是说‘不’。它是为组织安全创新提供所需的结构,” Nate解释道。“通过收集各部门的见解,我们能够建立对AI工具的认同,并确保每个潜在风险——无论是安全、道德还是法律风险——都得到解决。”
治理团队还通过明确其流程来培养信任文化。打破临床人员和技术人员之间的隔阂,确保了该委员会不仅仅是另一个“IT安全团队”,而是一个支持全系统创新的资源。
AI实践:提升患者护理水平
在影子AI得到控制后,UVM Health随后实施了正在改变医疗服务提供的AI工具。例如:
- 用于临床文档的智能听写AI: AI倾听医患咨询,生成供医生审阅的草稿笔记。这让临床医生能够专注于患者,而非键盘。
- AI支持的护理: 工具监测患者状况,如跌倒风险或褥疮,并向护理人员发送警报,确保及时采取预防措施。
这些工具展示了AI如何减轻临床医生的认知负荷,使他们回归以患者为中心的护理,并让医疗保健提供者能够更高效地工作,而不会牺牲信任或监督。
为未来做好准备
尽管当今医疗保健AI的关注点集中在辅助人类的工具上,但Nate强调了为下一阶段——自主AI——做好准备的必要性。这是指人工智能进化到能够自主决策的阶段,这可能带来巨大价值,但也伴随着重大风险。
诸如“提示注入”(即AI输出可能被恶意操控)等威胁需要主动的解决方案。Nate将此阶段比作互联网的早期。“我们不希望AI重蹈未受保护Web应用的覆辙,”他解释道。“AI现阶段需要防护栏,以避免未来漏洞被利用。”
组织需要像对待人类用户一样对待自主AI:定义访问级别、监控滥用行为并持续验证安全协议。UVM Health正致力于确保这些保护措施在AI在其工作流程中完全自主之前就已准备就绪。
点播收听完整的广播节目,请访问Healthcare Now Radio。