DeepSeek开源AI模型引发的网络安全风险剖析

中国初创公司DeepSeek发布开源AI模型引发行业震动,但多项安全测试显示该模型存在严重漏洞,包括数据库暴露、越狱攻击成功率100%以及生成不安全代码风险较高等问题,专家警告可能被恶意行为者大规模利用。

网络安全专家深度解析DeepSeek开源AI模型的安全隐患

技术突破与市场冲击

中国初创公司DeepSeek上月发布了一款新的开源AI模型,在整个科技界引起了巨大震动。该模型推出了名为R1的类ChatGPT AI模型,具备所有熟悉的功能,但运营成本仅为OpenAI、谷歌或Meta流行AI模型的一小部分。该公司声称其基础模型仅花费560万美元用于计算能力,而美国公司在AI技术上的投入达数亿或数十亿美元。

此消息导致美国股市遭受重创。例如,领先的AI芯片供应商英伟达下跌近17%,市值蒸发5888亿美元,而Meta和谷歌母公司Alphabet(GOOGL)也大幅下跌。

重大安全漏洞曝光

数据库基础设施安全问题

云安全公司Wiz发现了一起涉及DeepSeek AI的大规模数据暴露事件。据该公司称,DeepSeek没有保护其服务的数据库基础设施,导致一些数据和聊天记录可以从公共互联网访问,且无需密码。研究人员声称,他们在开始调查"几分钟内"就发现了这些数据,公开可访问的信息允许完全控制数据库操作,包括访问内部数据的能力。

越狱攻击测试结果惊人

思科对DeepSeek的AI聊天机器人进行了50次越狱测试,全部成功。“DeepSeek R1表现出100%的攻击成功率,意味着它未能阻止任何一个有害提示。这与至少表现出部分抵抗力的其他领先模型形成鲜明对比,“研究人员写道。他们补充说,这些发现表明,DeepSeek声称的成本效益训练方法,包括强化学习、思维链自我评估和蒸馏,可能损害了其安全机制。“与其他前沿模型相比,DeepSeek R1缺乏强大的防护栏,使其极易受到算法越狱和潜在滥用。”

安全基准测试表现不佳

在其他测试中,DeepSeek的AI模型在WithSecure Consulting的新AI安全基准测试Spikee中表现不佳,而Enkrypt AI发现,与OpenAI的o1模型相比,R1生成不安全代码的脆弱性高出四倍,产生有害输出的可能性高出11倍。

专家解析安全风险

恶意攻击规模化风险

Abnormal Security首席信息官Mike Britton表示:“DeepSeek声称的极低成本正在业内引起轰动,但市场的反应是基于对该公司的信任。目前,对DeepSeek的许多担忧集中在它如何以具有竞争力的更廉价替代方案威胁当前AI市场,但同样令人担忧的是其被滥用的潜力,特别是对普通公众而言。“他补充说,恶意行为者已经在使用流行的生成式AI工具自动化他们的攻击。“如果他们能够获得更快、更便宜的AI工具,可能使他们能够以前所未有的规模进行复杂攻击。”

数据隐私与合规性问题

安全公司AppOmni的AI总监Melissa Ruzzi也警告DeepSeek用户数据被收集并传回中国的风险。“这意味着中国政府可能利用DeepSeek的AI模型监视美国公民、获取专有秘密并进行影响力活动。由于数据保存在中国,它可能不遵守其他国家的数据要求,如GDPR《通用数据保护条例》。”

Ruzzi表示,美国公司在决定使用前应仔细考虑所有涉及的风险,模型本身可能已经存在偏见,支持可能影响用户形成意见的议程。“已经发现的一系列漏洞引起了严重担忧,特别是在数据泄露方面,这可能直接影响用户。美国海军已因安全和道德问题禁止使用DeepSeek。我们可以将此视为美国公司使用它不安全的一个迹象,美国个人如果决定使用它应该谨慎行事。”

企业防护建议

她补充说,首席信息安全官需要了解的最重要事项之一是围绕员工培训和意识,以及对DeepSeek使用的持续监控。“此外,AI驱动的攻击量可能会增加,因为DeepSeek的漏洞之一是越狱,攻击者可以绕过限制并强制其生成恶意输出,然后用于其他攻击。”

地缘政治背景下的安全担忧

Enkrypt AI首席执行官Sahil Agarwal总结说,随着美中AI军备竞赛加剧,两国都在推动下一代AI在军事、经济和技术 supremacy方面的边界。“DeepSeek-R1的安全漏洞可能变成一个危险工具——网络犯罪分子、虚假信息网络,甚至那些怀有生化战野心的人都可以利用。这些风险需要立即关注。”

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计