摘要:钓鱼攻击已成为现代网络安全的主要威胁,常通过利用可预测的人类行为来绕过技术防御。警告对话框是标准缓解措施,但解释不清和内容静态化限制了其有效性。本文研究评估大语言模型生成清晰、简洁、可扩展钓鱼警告解释的能力。我们开展了750人规模的组间用户研究,比较手动生成解释与两个LLM生成的警告效果。研究探讨了两种解释风格对行为指标和感知结果的影响。结果表明,构造良好的LLM生成解释在降低钓鱼易感性方面可媲美甚至超越人工解释;基于特征的解释对真实钓鱼攻击更有效,而反事实解释降低了误报率。其他变量如工作负荷、性别和警告熟悉度显著调节警告效果。这些结果表明LLM可用于自动构建钓鱼警告解释,且方案具有可扩展性、适应性并符合以人为本的价值观。
主题分类:密码学与安全;人机交互
引用信息:arXiv:2507.07916 [cs.CR]