正则化难例提升对抗鲁棒性

本研究探讨了对抗训练中难例对模型鲁棒性的负面影响,提出通过难度比例标签平滑方法自适应缓解难例效应,理论分析和实验表明该方法能有效提升神经网络的对抗鲁棒性。

正则化难例提升对抗鲁棒性

摘要

近期研究证实,从训练中剔除难以学习的样本能够提升神经网络(NNs)的泛化性能。本研究探讨了这一有趣现象——即难例对泛化的负面影响——在对抗训练中的表现。特别地,从理论上证明了在对抗训练中,难例难度增加的程度显著大于易例难度增加的程度。此外,验证了在对抗训练中,难例仅通过标签记忆来进行拟合。通过对这种记忆现象进行理论和实证分析,表明在对抗训练中剔除难例能够增强模型的鲁棒性。然而,如何找到去除降低鲁棒性表现的难例的最佳阈值仍然是一个挑战。基于这些观察,提出了一种新方法——难度比例标签平滑(DPLS)——来自适应地缓解难例的负面影响,从而提升神经网络的对抗鲁棒性。值得注意的是,实验结果表明该方法能够成功利用难例同时规避其负面影响。

[摘要][PDF][BibTeX]

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计