<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>本地大语言模型 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E6%9C%AC%E5%9C%B0%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/</link>
    <description>Recent content in 本地大语言模型 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Wed, 22 Oct 2025 00:00:33 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E6%9C%AC%E5%9C%B0%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>本地LLM的安全隐患：高达95%的后门注入成功率</title>
      <link>https://blog.qife122.com/p/%E6%9C%AC%E5%9C%B0llm%E7%9A%84%E5%AE%89%E5%85%A8%E9%9A%90%E6%82%A3%E9%AB%98%E8%BE%BE95%E7%9A%84%E5%90%8E%E9%97%A8%E6%B3%A8%E5%85%A5%E6%88%90%E5%8A%9F%E7%8E%87/</link>
      <pubDate>Wed, 22 Oct 2025 00:00:33 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E6%9C%AC%E5%9C%B0llm%E7%9A%84%E5%AE%89%E5%85%A8%E9%9A%90%E6%82%A3%E9%AB%98%E8%BE%BE95%E7%9A%84%E5%90%8E%E9%97%A8%E6%B3%A8%E5%85%A5%E6%88%90%E5%8A%9F%E7%8E%87/</guid>
      <description>&lt;h1 id=&#34;本地llm在安全方面表现更差&#34;&gt;本地LLM在安全方面表现更差&lt;/h1&gt;&#xA;&lt;p&gt;如果你为了隐私和安全而运行本地LLM，你需要停下来阅读本文。我们的研究表明，它们更容易被欺骗。当攻击者提示它们包含漏洞时，本地模型的服从成功率高达95%。这些本地模型规模较小，识别他人试图欺骗它们的能力较弱。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
