ConSeg:针对语义分割的上下文后门攻击
尽管计算机视觉领域取得了显著进展,语义分割模型仍可能受到后门攻击的威胁。这类攻击通过隐藏触发器,旨在使模型在触发器存在时将受害类别的实例误分类为目标类别,严重威胁模型的可靠性。
为深入探索针对语义分割的后门攻击,本文提出了一种简单而有效的后门攻击方法——上下文分割后门攻击(ConSeg)。ConSeg利用语义分割模型固有的上下文信息来增强后门性能。我们的方法基于一个有趣的观察:当目标类别设置为受害类别的“共现”类别时,受害类别更容易被“误分割”。基于这一洞察,ConSeg模仿目标类别的上下文信息,并在受害区域重建该信息,从而建立目标类别与受害类别之间的上下文关系,使攻击更容易实现。
实验结果表明,ConSeg在攻击成功率(ASR)上相比现有方法提升了15.55%,同时表现出对最先进后门防御机制的抵抗力。
主题分类:
密码学与安全(cs.CR);计算机视觉与模式识别(cs.CV)
引用信息:
arXiv:2507.19905 [cs.CR]
DOI: 10.48550/arXiv.2507.19905
提交历史:
2025年7月26日提交