大语言模型能否提升钓鱼防御能力?大规模警告对话解释控制实验

本研究通过750人规模的控制实验,评估大语言模型生成钓鱼警告解释的效果。实验对比手动生成与Claude 3.5 Sonnet、Llama 3.3 70B生成的警告,分析特征式和反事实式解释对用户行为的影响。结果显示LLM生成的解释在降低钓鱼易感性方面可媲美甚至超越人工解释。

摘要:钓鱼攻击已成为现代网络安全的主要威胁,常通过利用可预测的人类行为来绕过技术防御。警告对话框是标准缓解措施,但解释不清和内容静态化限制了其有效性。本文研究评估大语言模型生成清晰、简洁、可扩展钓鱼警告解释的能力。我们开展了750人规模的组间用户研究,比较手动生成解释与两个LLM生成的警告效果。研究探讨了两种解释风格对行为指标和感知结果的影响。结果表明,构造良好的LLM生成解释在降低钓鱼易感性方面可媲美甚至超越人工解释;基于特征的解释对真实钓鱼攻击更有效,而反事实解释降低了误报率。其他变量如工作负荷、性别和警告熟悉度显著调节警告效果。这些结果表明LLM可用于自动构建钓鱼警告解释,且方案具有可扩展性、适应性并符合以人为本的价值观。

主题分类:密码学与安全;人机交互

引用信息:arXiv:2507.07916 [cs.CR]

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计