安全攻防博弈(SecTOW):基于强化学习的多模态模型安全迭代防御-攻击训练

本文提出SecTOW方法,通过强化学习迭代训练防御者和攻击者模块,有效增强多模态大语言模型的安全性。该方法利用GRPO算法优化奖励机制,扩展越狱数据并减少无害输入的误拒,在保持通用性能的同时显著提升模型安全防护能力。

安全攻防博弈(SecTOW):基于强化学习的多模态模型安全迭代防御-攻击训练

摘要

多模态大语言模型(MLLMs)的快速发展在各种应用中带来了突破,但其安全性仍然是一个关键挑战。一个紧迫的问题涉及不安全的图像-查询对——这些专门设计的越狱输入旨在绕过安全约束并引发MLLMs的意外响应。与通用多模态数据相比,此类不安全输入相对稀疏,这限制了开发鲁棒防御模型可用训练样本的多样性和丰富性。同时,现有的防护栏型方法依赖外部模块来强制执行安全约束,但未能解决MLLMs内部的内在漏洞。另一方面,传统的监督微调(SFT)经常过度拒绝无害输入,损害通用性能。鉴于这些挑战,我们提出了安全攻防博弈(SecTOW),一种创新的迭代防御-攻击训练方法,以增强MLLMs的安全性。

SecTOW包含两个模块:防御者和辅助攻击者,两者均使用强化学习(GRPO)进行迭代训练。在迭代过程中,攻击者识别防御模型中的安全漏洞并扩展越狱数据。扩展的数据随后用于训练防御者,使其能够解决已识别的安全漏洞。我们还设计了用于GRPO的奖励机制,以简化响应标签的使用,减少对复杂生成标签的依赖,并实现合成数据的高效利用。此外,采用质量监控机制来减轻防御者对无害输入的过度拒绝,并确保攻击者生成的越狱数据的多样性。在安全特定和通用基准测试上的实验结果表明,SecTOW在保持通用性能的同时显著提高了安全性。

评论

10页,4张图

主题

密码学与安全(cs.CR);人工智能(cs.AI)

引用

arXiv:2507.22037 [cs.CR]
(或此版本的 arXiv:2507.22037v1 [cs.CR])
https://doi.org/10.48550/arXiv.2507.22037

提交历史

来自:Shixuan Liu [查看电子邮件] [v1]
2025年7月29日星期二 17:39:48 UTC (22,983 KB)

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计