<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>代码语言模型 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E4%BB%A3%E7%A0%81%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/</link>
    <description>Recent content in 代码语言模型 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Fri, 19 Sep 2025 16:41:33 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E4%BB%A3%E7%A0%81%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>代码语言模型能否抵御多轮恶意编码提示攻击？MOCHA基准测试揭秘</title>
      <link>https://blog.qife122.com/p/%E4%BB%A3%E7%A0%81%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E8%83%BD%E5%90%A6%E6%8A%B5%E5%BE%A1%E5%A4%9A%E8%BD%AE%E6%81%B6%E6%84%8F%E7%BC%96%E7%A0%81%E6%8F%90%E7%A4%BA%E6%94%BB%E5%87%BBmocha%E5%9F%BA%E5%87%86%E6%B5%8B%E8%AF%95%E6%8F%AD%E7%A7%98/</link>
      <pubDate>Fri, 19 Sep 2025 16:41:33 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E4%BB%A3%E7%A0%81%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E8%83%BD%E5%90%A6%E6%8A%B5%E5%BE%A1%E5%A4%9A%E8%BD%AE%E6%81%B6%E6%84%8F%E7%BC%96%E7%A0%81%E6%8F%90%E7%A4%BA%E6%94%BB%E5%87%BBmocha%E5%9F%BA%E5%87%86%E6%B5%8B%E8%AF%95%E6%8F%AD%E7%A7%98/</guid>
      <description>&lt;h1 id=&#34;mocha代码语言模型能否抵御多轮恶意编码提示攻击&#34;&gt;MOCHA：代码语言模型能否抵御多轮恶意编码提示攻击？&lt;/h1&gt;&#xA;&lt;p&gt;&lt;strong&gt;摘要&lt;/strong&gt;：大型语言模型（LLMs）在代码生成能力方面取得显著进展，但其在面对对抗性滥用（尤其是通过多轮恶意编码提示）时的鲁棒性仍未得到充分探索。本研究提出代码分解攻击方法，即将恶意编码任务分解为多个对话轮次中看似良性的子任务以规避安全过滤器。为促进系统化评估，我们引入MOCHA大规模基准测试，用于评估代码LLMs对单轮和多轮恶意提示的鲁棒性。开源和闭源模型的实证结果揭示了持续存在的漏洞，尤其是在多轮场景下。基于MOCHA的微调在保持编码能力的同时提高了拒绝率，且无需额外监督即可在外部队对抗数据集上提升鲁棒性，拒绝率最高提升32.4%。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
