医疗AI的问诊实践
想象这样的场景:身体不适时预约医生,次日就能获得半小时详细问诊。问诊者可以充分描述症状、担忧和完整病史,而倾听者会专注记录并提出深入追问。最终患者带着诊断结果和治疗方案离开,感受到前所未有的医疗关怀。
但这一切可能并非由执业医生完成。南加州少数诊所正在运行由某医疗初创公司开发的创新系统。这些诊所(部分服务医疗补助计划患者)提供快速专科预约,而关键区别在于患者与医生接触时间大幅缩短。
ScopeAI的技术核心
患者面对的是具有同情心但临床经验有限的医疗助理,真正的诊断工作由名为ScopeAI的专有大语言模型系统完成。该系统实时转录分析医患对话,生成诊断和治疗方案建议,最后由医生审核确认。
该机构首席技术官表示:“我们的核心目标是让医生从问诊环节中抽身。”据首席执行官透露,这种方式使医生接诊量提升4-5倍。
系统架构与工作流程
ScopeAI由多个大语言模型组成,每个模型负责特定问诊步骤:从根据患者陈述生成追问问题,到列出可能病症。系统主要基于某机构的开源Llama模型进行微调,同时整合了某研究机构的Claude模型。
问诊过程中,助理通过ScopeAI界面读取问题,系统根据患者回答实时生成新问题。为后续审核医生提供的报告包含:就诊摘要、最可能诊断、2-3个备选诊断、以及转诊或开药等后续步骤,每个结论都附有推理依据。
实际应用场景
该系统已应用于心脏病学、内分泌学和初级保健诊所,尤其服务于洛杉矶流浪人群的街头医疗团队。该团队负责人表示,过去需要当面完成的阿片类药物成瘾治疗处方,现在通过配备ScopeAI的个案工作者即可完成初步评估。
监管与伦理挑战
哈佛法学院教授指出,任何充当“盒中医生”的AI系统都可能需要监管机构审批。虽然当地医疗实践法规定AI不能替代医生的诊断责任,但允许医生在工作中使用AI技术。
该机构强调,由于所有建议都需医生审核,系统刻意避免成为“盒中医生”,因此不需要特殊审批。为减少自动化偏差风险,公司通过历史数据测试系统性能,要求正确诊断纳入前三建议的比例不低于92%,并对医生进行专项培训。
透明度争议
医疗助理透露,虽然会告知患者AI系统参与信息收集,但不会说明具体诊断建议功能。伦理专家担忧这种安排可能使患者低估算法对诊疗的影响程度。研究表明,医生使用AI系统时存在过度采纳建议的倾向,这种风险在医生未亲临问诊时尤为突出。
目前该机构尚未进行与传统诊疗方式的对比研究,无法确证系统是否真正改善或维持医疗质量。专家强调,在提升医疗可及性的同时,必须通过严格评估确保技术应用的可靠性。