<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>对抗生成 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90/</link>
    <description>Recent content in 对抗生成 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Sun, 14 Sep 2025 19:26:50 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>通过推理感知安全评估减少LLM过度谨慎</title>
      <link>https://blog.qife122.com/p/%E9%80%9A%E8%BF%87%E6%8E%A8%E7%90%86%E6%84%9F%E7%9F%A5%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0%E5%87%8F%E5%B0%91llm%E8%BF%87%E5%BA%A6%E8%B0%A8%E6%85%8E/</link>
      <pubDate>Sun, 14 Sep 2025 19:26:50 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E9%80%9A%E8%BF%87%E6%8E%A8%E7%90%86%E6%84%9F%E7%9F%A5%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0%E5%87%8F%E5%B0%91llm%E8%BF%87%E5%BA%A6%E8%B0%A8%E6%85%8E/</guid>
      <description>&lt;h1 id=&#34;falsereject通过推理感知安全评估减少llm的过度谨慎性&#34;&gt;FalseReject：通过推理感知安全评估减少LLM的过度谨慎性&lt;/h1&gt;&#xA;&lt;p&gt;新型基于图的对抗代理方法生成训练样本，帮助识别和缓解&amp;quot;过度拒绝&amp;quot;行为。&lt;/p&gt;&#xA;&lt;p&gt;大型语言模型（LLM）通过强大的安全机制在执行负责任AI标准方面取得了长足进步。然而这些机制常常过于谨慎，导致过度拒绝——即模型拒绝回答完全无害的提示。这种过度谨慎的行为虽然出于好意，但会降低LLM在教育、医疗和人力资源支持等细微现实场景中的实用性。&lt;/p&gt;</description>
    </item>
    <item>
      <title>通过推理感知安全评估减少LLM过度谨慎</title>
      <link>https://blog.qife122.com/p/%E9%80%9A%E8%BF%87%E6%8E%A8%E7%90%86%E6%84%9F%E7%9F%A5%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0%E5%87%8F%E5%B0%91llm%E8%BF%87%E5%BA%A6%E8%B0%A8%E6%85%8E/</link>
      <pubDate>Sat, 13 Sep 2025 02:33:46 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E9%80%9A%E8%BF%87%E6%8E%A8%E7%90%86%E6%84%9F%E7%9F%A5%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0%E5%87%8F%E5%B0%91llm%E8%BF%87%E5%BA%A6%E8%B0%A8%E6%85%8E/</guid>
      <description>&lt;h1 id=&#34;falsereject通过推理感知安全评估减少大语言模型的过度谨慎性&#34;&gt;FalseReject：通过推理感知安全评估减少大语言模型的过度谨慎性&lt;/h1&gt;&#xA;&lt;p&gt;大语言模型（LLMs）通过强大的安全机制在执行负责任AI标准方面取得了长足进步。然而，这些机制往往过于谨慎，导致过度拒绝——即模型拒绝回答完全无害的提示。这种过度谨慎的行为虽然出于好意，但会降低LLMs在教育、医疗和人力资源支持等细微现实场景中的实用性。&lt;/p&gt;</description>
    </item>
    <item>
      <title>通过推理感知安全评估减少LLM过度谨慎</title>
      <link>https://blog.qife122.com/p/%E9%80%9A%E8%BF%87%E6%8E%A8%E7%90%86%E6%84%9F%E7%9F%A5%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0%E5%87%8F%E5%B0%91llm%E8%BF%87%E5%BA%A6%E8%B0%A8%E6%85%8E/</link>
      <pubDate>Sat, 13 Sep 2025 01:42:37 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E9%80%9A%E8%BF%87%E6%8E%A8%E7%90%86%E6%84%9F%E7%9F%A5%E5%AE%89%E5%85%A8%E8%AF%84%E4%BC%B0%E5%87%8F%E5%B0%91llm%E8%BF%87%E5%BA%A6%E8%B0%A8%E6%85%8E/</guid>
      <description>&lt;p&gt;大型语言模型（LLM）通过强大的安全机制在执行负责任AI标准方面已取得长足进步。然而这些机制往往过于谨慎，导致过度拒绝——即模型拒绝回答完全无害的提示。这种过度谨慎的行为虽出于好意，但会降低LLM在教育、医疗和人力资源支持等需要细致处理的现实场景中的实用性。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
