DeepSeek开源AI模型引发的网络安全风险解析

中国初创公司DeepSeek发布开源AI模型引发行业震动,但多项安全测试显示其存在严重安全漏洞,包括数据库暴露、越狱攻击成功率100%以及易生成不安全代码等问题,专家警告可能被恶意行为者利用。

网络安全影响:DeepSeek开源AI模型的安全隐患

中国初创公司DeepSeek上个月发布了一款新的开源AI模型,在整个技术领域引发了巨大震动。该公司推出了一款名为R1的类ChatGPT AI模型,具备所有熟悉的功能,但运营成本仅为OpenAI、谷歌或Meta流行AI模型的一小部分。该公司声称其基础模型仅花费560万美元用于计算能力,而美国公司在AI技术上的投入达数亿或数十亿美元。

消息传出后,美国股市遭受重创。例如,领先的AI芯片供应商英伟达下跌近17%,市值蒸发5888亿美元,而Meta和谷歌母公司Alphabet(GOOGL)也大幅下跌。

这一消息还引发了华尔街对非科技公司投资的巨大变化。特朗普总统称DeepSeek的发布是对美国科技公司的"警钟",认为中国AI行业的最新发展对美国可能是"积极的"。

网络安全方面的影响同样重大,引发了大量关于这一开源AI模型突然出现的重要性的头条新闻、研究和反应。

DeepSeek因安全漏洞受到批评

多份报告和研究强调了DeepSeek AI模型中存在的重大安全缺陷。

云安全公司Wiz发现了一起涉及DeepSeek AI的大规模数据暴露事件。据该公司称,DeepSeek没有保护其服务的数据库基础设施,导致一些数据和聊天记录可以从公共互联网访问,且无需密码。研究人员声称,他们在开始调查后"几分钟内"就发现了这些数据,公开可访问的信息允许完全控制数据库操作,包括访问内部数据的能力。

此外,思科对DeepSeek的AI聊天机器人测试了50种越狱攻击,全部成功。“DeepSeek R1表现出100%的攻击成功率,意味着它未能阻止任何一个有害提示。这与至少表现出部分抵抗力的其他领先模型形成鲜明对比,“研究人员写道。他们补充说,这些发现表明DeepSeek声称的成本效益训练方法,包括强化学习、思维链自我评估和蒸馏,可能损害了其安全机制。“与其他前沿模型相比,DeepSeek R1缺乏强大的防护栏,使其极易受到算法越狱和潜在滥用的影响。”

在其他测试中,DeepSeek的AI模型在WithSecure Consulting的新AI安全基准测试Spikee中表现不佳,而Enkrypt AI发现,与OpenAI的o1模型相比,R1生成不安全代码的脆弱性高出四倍,产生有害输出的可能性高出11倍。

专家反思DeepSeek AI的安全风险

Abnormal Security首席信息官Mike Britton表示:“DeepSeek声称的极低成本正在行业内引起轰动,但市场的反应是基于相信该公司的话。目前,围绕DeepSeek的大部分担忧是它可能如何以具有竞争力的更廉价替代方案威胁当前AI市场,但同样令人担忧的,特别是对普通公众而言,是其被滥用的潜力。”

他补充说,恶意行为者已经在使用流行的生成式AI工具来自动化他们的攻击。“如果他们能够获得更快、更便宜的AI工具,可能使他们能够以前所未有的规模进行复杂攻击。”

安全公司AppOmni的AI总监Melissa Ruzzi也警告说,DeepSeek用户数据被收集并发送回中国。“这意味着中国政府可能利用DeepSeek的AI模型监视美国公民、获取专有秘密并进行影响力活动。由于数据保存在中国,它可能不符合其他国家(如GDPR)的数据要求。”

Ruzzi表示,美国公司在决定使用它之前应仔细考虑所有涉及的风险,模型本身可能已经存在偏见,支持可能影响用户形成意见的议程。“已经发现的一系列漏洞引起了重大担忧,特别是在数据泄露方面,这可能直接影响用户。美国海军已经因安全和道德问题禁止使用DeepSeek。我们可以将此视为美国公司使用它不安全的一个迹象,美国个人如果决定使用它应该谨慎行事。”

她补充说,首席信息安全官需要了解的最重要事项之一是围绕员工培训和意识,以及对DeepSeek使用的持续监控。“此外,AI驱动的攻击量可能会增加,因为DeepSeek的漏洞之一是越狱,攻击者可以绕过限制并强制其生成恶意输出,然后用于其他攻击。”

Enkrypt AI首席执行官Sahil Agarwal总结说,随着美中之间AI军备竞赛的加剧,两国都在推动下一代AI在军事、经济和技术优势方面的边界。“DeepSeek-R1的安全漏洞可能变成一个危险工具——网络犯罪分子、虚假信息网络,甚至那些有生化武器野心的人都可以利用。这些风险需要立即关注。”

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计