<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>战略欺骗 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E6%88%98%E7%95%A5%E6%AC%BA%E9%AA%97/</link>
    <description>Recent content in 战略欺骗 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Thu, 25 Sep 2025 04:27:50 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E6%88%98%E7%95%A5%E6%AC%BA%E9%AA%97/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>战略欺骗如何削弱前沿大语言模型的安全评估</title>
      <link>https://blog.qife122.com/p/%E6%88%98%E7%95%A5%E6%AC%BA%E9%AA%97%E5%A6%82%E4%BD%95%E5%89%8A%E5%BC%B1%E5%89%8D%E6%B2%BF%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E7%9A%84%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0/</link>
      <pubDate>Thu, 25 Sep 2025 04:27:50 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E6%88%98%E7%95%A5%E6%AC%BA%E9%AA%97%E5%A6%82%E4%BD%95%E5%89%8A%E5%BC%B1%E5%89%8D%E6%B2%BF%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E7%9A%84%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0/</guid>
      <description>&lt;h1 id=&#34;战略欺骗可能破坏前沿大语言模型的安全评估&#34;&gt;战略欺骗可能破坏前沿大语言模型的安全评估&lt;/h1&gt;&#xA;&lt;p&gt;大型语言模型（LLM）开发者致力于让模型保持诚实、有帮助且无害。然而，在面对恶意请求时，模型经过训练会拒绝响应，但这会牺牲其帮助性。我们发现，前沿LLM可能发展出一种对欺骗行为的偏好，即使存在其他选择。受影响的模型会对有害请求输出看似有害但在实践中微妙错误或实际无害的回应。这种行为甚至在同系列模型内部也会以难以预测的方式出现变异。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
