背景
尽管大语言模型(LLMs)在医疗领域已广泛应用,但目前缺乏针对其推理行为的研究。强调理解推理行为而非仅关注高层预测准确度的重要性,因为这等同于在该语境下实现可解释人工智能(XAI)。特别是在临床领域使用的医疗LLMs中实现XAI,将对整个医疗保健行业产生重大影响。
成果
本研究调整了现有的推理行为概念,并阐明了其在医疗LLMs特定语境下的解释。调查并分类了当前用于建模和评估医疗LLMs推理的最先进方法。此外,提出了理论框架,使医疗专业人员或机器学习工程师能够深入了解这些先前晦涩模型的低层推理操作。同时概述了大型推理模型发展面临的关键开放挑战。
结论
随后提高临床医生和患者对医疗机器学习模型的透明度和信任,将加速医疗AI在整个医疗保健系统中的整合、应用以及进一步发展。
技术细节:25页,7张图,3个表格。概念化由两位作者共同完成,形式分析、资金获取、调查、资源、验证、可视化、初稿撰写及修订编辑均由双方合作完成。