<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>多模态模型安全 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E5%A4%9A%E6%A8%A1%E6%80%81%E6%A8%A1%E5%9E%8B%E5%AE%89%E5%85%A8/</link>
    <description>Recent content in 多模态模型安全 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Fri, 05 Sep 2025 14:14:37 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E5%A4%9A%E6%A8%A1%E6%80%81%E6%A8%A1%E5%9E%8B%E5%AE%89%E5%85%A8/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>安全攻防博弈（SecTOW）：基于强化学习的多模态模型安全迭代防御-攻击训练</title>
      <link>https://blog.qife122.com/p/%E5%AE%89%E5%85%A8%E6%94%BB%E9%98%B2%E5%8D%9A%E5%BC%88sectow%E5%9F%BA%E4%BA%8E%E5%BC%BA%E5%8C%96%E5%AD%A6%E4%B9%A0%E7%9A%84%E5%A4%9A%E6%A8%A1%E6%80%81%E6%A8%A1%E5%9E%8B%E5%AE%89%E5%85%A8%E8%BF%AD%E4%BB%A3%E9%98%B2%E5%BE%A1-%E6%94%BB%E5%87%BB%E8%AE%AD%E7%BB%83/</link>
      <pubDate>Fri, 05 Sep 2025 14:14:37 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E5%AE%89%E5%85%A8%E6%94%BB%E9%98%B2%E5%8D%9A%E5%BC%88sectow%E5%9F%BA%E4%BA%8E%E5%BC%BA%E5%8C%96%E5%AD%A6%E4%B9%A0%E7%9A%84%E5%A4%9A%E6%A8%A1%E6%80%81%E6%A8%A1%E5%9E%8B%E5%AE%89%E5%85%A8%E8%BF%AD%E4%BB%A3%E9%98%B2%E5%BE%A1-%E6%94%BB%E5%87%BB%E8%AE%AD%E7%BB%83/</guid>
      <description>&lt;h1 id=&#34;安全攻防博弈sectow基于强化学习的多模态模型安全迭代防御-攻击训练&#34;&gt;安全攻防博弈（SecTOW）：基于强化学习的多模态模型安全迭代防御-攻击训练&lt;/h1&gt;&#xA;&lt;h2 id=&#34;摘要&#34;&gt;摘要&lt;/h2&gt;&#xA;&lt;p&gt;多模态大语言模型（MLLMs）的快速发展在各种应用中带来了突破，但其安全性仍然是一个关键挑战。一个紧迫的问题涉及不安全的图像-查询对——这些专门设计的越狱输入旨在绕过安全约束并引发MLLMs的意外响应。与通用多模态数据相比，此类不安全输入相对稀疏，这限制了开发鲁棒防御模型可用训练样本的多样性和丰富性。同时，现有的防护栏型方法依赖外部模块来强制执行安全约束，但未能解决MLLMs内部的内在漏洞。另一方面，传统的监督微调（SFT）经常过度拒绝无害输入，损害通用性能。鉴于这些挑战，我们提出了安全攻防博弈（SecTOW），一种创新的迭代防御-攻击训练方法，以增强MLLMs的安全性。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
