揭秘“网络垃圾”:当权威机构滥用AI威胁论谋利

本文揭露了MIT与Safe Security联合发布的一份有严重问题的研究报告,该报告声称80%的勒索软件攻击与生成式AI有关。文章深入剖析了报告中的无稽之谈、背后的利益冲突,并批判了安全厂商为牟利而制造“网络垃圾”的行业乱象。

CyberSlop —— 认识新的威胁行为者:MIT 和 Safe Security

网络安全供应商兜售无稽之谈并非新鲜事,但最近我们有了一个新的维度——生成式人工智能。这使供应商——以及教育机构——得以为了利润而推销“网络垃圾”。

这里我创造了一个新词——cyberslop(网络垃圾)——指受信任的机构利用生成式人工智能带来的网络安全威胁进行毫无根据的断言以牟利,滥用其公认的专业知识。

我启动了一个新的持续系列,名为“CyberSlop”,以记录一系列活动。

活动集群一 —— MIT 和 Safe Security

今年早些时候,MIT发布了一份工作论文并创建了一个网页,内容是关于80%的勒索软件攻击使用了生成式人工智能。以下是他们网站的截图:

[描述:MIT网站截图,标题为“生成式AI驱动的勒索软件攻击激增”,称“根据对2800起勒索软件事件的分析,近80%的攻击现在使用生成式AI技术”]

存档链接:https://archive.ph/SckSr

以下是该论文的截图:

[描述:论文封面截图,标题为“生成式人工智能在勒索软件攻击中的崛起:一项实证分析”,作者来自MIT和Safe Security]

这篇论文几乎完全是胡说八道。它糟糕得令人咋舌。糟糕到让人不知道从哪里开始批评。

论文作者署名为MIT的Michael Siegel和Sander Zeijlemaker,以及Safe Security的Vidit Baxi和Sharavanan Raajah。我不明白相关人士为何没有意识到问题所在。甚至这项研究的核心前提都说不通。

来自MIT的Michael Siegel与来自MIT的Debayan Gupta一同担任Safe Security的技术顾问委员会成员。

[描述:Safe Security官网“顾问委员会”部分截图,显示Michael Siegel和Debayan Gupta的名字及MIT affiliation]

出于某种原因,这一点在PDF中并未披露。

我在网上强调了这篇论文,因为首席信息安全官们不断把它转发给我,说我关于生成式AI不是勒索软件团伙运营主要部分的看法是错误的(顺便说一句,它不是——我一直在追踪他们)。于是,我阅读了这篇论文,开始在网上发帖讨论,然后它就消失了:

[描述:X平台对话截图,显示原论文链接已失效,返回“早期研究论文”提示]

在我开始之前,Cynthia Brumfield报道说:

“看到麻省理工学院斯隆管理学院和Safe Security发布的一份声称80%的勒索软件攻击涉及生成式人工智能的工作论文在网上受到批评后突然消失,我感到很困惑。”

考虑到你上面看到它是如何被呈现的,我很惊讶有人会感到困惑。作者还在他们自己的会议上做了展示:

[描述:会议演示幻灯片截图,标题为“生成式AI如何推动勒索软件攻击”]

它也出现在多个MIT的PDF文件、网页以及网络安全媒体中。

PDF本身已被替换,声称你正在访问MIT网站的“早期研究论文”部分……这,好吧,算是一个角度——但肯定不是个好角度,考虑到它已经传播了多远。

[描述:替换后的PDF页面截图,显示“早期研究论文”标题]

[描述:MIT斯隆学院官网页面截图,标题为“生成式AI驱动的勒索软件攻击激增”,未称之为“早期研究论文”]

我注意到MIT网站经历了一些重写,例如从这个:

[描述:旧版网站页面截图,包含“生成式AI”相关描述]

变成了这个:

[描述:新版网站页面截图,“生成式AI”的叙述已完全被移除]

生成式AI的叙述已被完全删除,并且没有任何地方注明发生了更改。

那么,这篇论文到底有什么问题?或许问“什么是对的”会更好。

我让Marcus来开头:

https://www.linkedin.com/posts/malwaretech_lmao-kevin-beaumont-roasted-that-80-of-activity-7390142279480619010-QzKu

这篇论文将几乎每一个勒索软件团伙都归为使用AI,却没有来源(好吧,他们似乎引用了CISA——但CISA并没说过这话)。这当然只是无稽之谈。

论文谈及诸如Emotet具有AI特性(完全胡说,它也是一个历史威胁),以及在生成式AI出现之前就消失了的勒索软件团伙使用生成式AI……这里面的问题太多了,简直难以置信这样的东西会被这样公之于众。

这篇论文已从互联网上消失……不过,如果你想找点乐子(尽管这是以对下游防御者造成的伤害为代价),你可以在互联网档案馆永远找到它:

https://web.archive.org/web/20250708174552/https://cams.mit.edu/wp-content/uploads/Safe-CAMS-MIT-Article-Final-4-7-2025-Working-Paper.pdf

甚至就在今天,《金融时报》还引用了这篇文章:

[描述:《金融时报》文章截图,标题提及“AI驱动的勒索软件攻击”并引用了MIT的研究]

《金融时报》的文章链接指向了那个MIT已默默删除了相关声明的网站。

这里面的问题实在太多了,嗯,令人沮丧。作者们肯定知道这是胡说八道——一旦在网上受到批评,它就被清除了。它的扉页上印着MIT斯隆学院网络安全主管的名字,并且在网上被广泛传播了数月之久,无人质疑。

那么,这到底是怎么回事?

首席信息安全官们被生成式AI威胁吓坏了。因为供应商以及现在本应更清楚的教育机构在恐吓他们——不是因为实际的威胁水平,而是出于经济动机。

在这种情况下,MIT斯隆学院接受了Safe Security的资助,而该报告的主要研究员正是Safe Security的董事会成员。Safe Security提供智能体AI解决方案。MIT的报告鼓吹需要一种新方法,引用的链接指向Safe Security的网页。Safe Security则引用与MIT共同开发其产品。

这里的激励……管理不善,而且这个行业病得很重。所有人都只是随波逐流,结果导致首席信息安全官们接收到错误的信息。

生成式AI热潮始于2022年。现在已经过去3年多了。如果你问任何一家严肃的网络事件响应公司,是什么初始访问载体导致了事件,他们都会告诉你经典的那些——凭据滥用(来自信息窃取者)、利用未修补的边缘设备的漏洞等等。

这不是理论——这来自那些以响应网络事件为生的人的实际事件响应数据。我就是做这个的。生成式AI勒索软件并不存在,MIT应该为自己声称研究了2800起勒索软件事件的数据并发现80%与生成式AI有关而感到深深的羞耻。MIT在被指责后删除PDF是有原因的。

[描述:对话截图,其中Kevin Beaumont断言“生成式AI勒索软件不是个事儿”,并批评MIT的报告]

如果你不相信我,你可以问问那一大堆真正的专家:

https://socket.dev/blog/security-community-slams-mit-linked-report-claiming-ai-powers-80-of-ransomware

或者甚至问一个AI聊天机器人,如果你只相信那个的话(我知道,这很讽刺):

[描述:与AI聊天机器人的对话截图,AI回答称没有证据表明80%的勒索软件攻击使用生成式AI]

或者去读读每年的厂商报告。

[描述:CrowdStrike威胁报告截图,显示“初始访问方式”图表,主要为漏洞利用和凭据盗窃等]

需要注意的是——CrowdStrike的报告一次都没有提到生成式AI或GenAI……但他们在最后总结道,组织需要做的头等大事就是实施他们的智能体AI产品,因为“威胁行为者采用AI以更快地发动攻击、扩大运营规模并逃避检测”——但完全没有提供任何证据。

你能做的、对抗现实世界网络事件(而非LinkedIn上的GenAI色情内容)的唯一最佳方法,就是落实基础安全。

例如,网络钓鱼就是网络钓鱼。如果你的整个组织会因为一封钓鱼邮件而瘫痪,你不需要GenAI就会破产——你只需要有人用一个AOL账户,用蹩脚的英语给100名员工发邮件。总会有人点开的。

错在于你乘坐的飞机可能因乘客错误地调整座椅靠背而导致机头随时脱落——这不是乘客的错,而告诉他们不要按下“机头脱落”按钮也不是好的管理方法。

没有人会否认生成式AI可能被滥用。但每一个处理现实世界勒索软件事件的人都会告诉你,GenAI不是当前现实世界的问题——在所有案例中,问题都是缺乏安全基础。

[描述:一张简单手绘图表,显示“真正的威胁”如未修补漏洞、弱密码等比“GenAI炒作”大得多]

我花了几分钟画这个

你需要通过实施基础的网络安全和IT来使你的组织具备网络弹性——到那时,你将有足够的能力应对未来的威胁。生成式AI的潜力更多是换汤不换药。

与让你进入新产品和服务的生态系统相比,客户实施基础安全不会为供应商(或任何特定于AI的供应商)带来那么多利润。记住这个动机。

不要这样做。打破这个习惯。

对此能做些什么?

我认为我们,身处一线的网络安全从业者,需要发声,能够指出这些无稽之谈。权力的平衡被错误地倾斜了。CyberSlop,这个系列,将为此提供一个平台。

“Cyberslop”这个词,就是你的力量。让我们清楚地认识到,当事情经不起推敲时需要进行调查的必要性,并揭露那些兜售“网络垃圾”的组织。

我认为MIT不应该允许研究人员为他们担任董事会成员的组织提交论文,甚至在论文中都不披露这种关系——他们真的需要审视这里发生的整体情况,因为感觉不对。显然,这篇论文需要消失并进行广泛的同行评审——包括由任何真正响应过勒索软件事件的人进行评审。

如果你查看Safe Security的网站,那是一波又一波关于生成式AI的令人困惑的断言——它太疯狂了,甚至让人不知道从哪里开始批评。为什么MIT斯隆学院的员工会坐在这家公司的董事会里?

[描述:Safe Security产品页面截图,声称其AI能防御Emotet、Ryuk、LockBit等,并关联到生成式AI]

Emotet不是勒索软件家族且没有使用AI,Ryuk从未使用AI,LockBit没有使用AI模型——这个网站上全是垃圾。

我打算使用“CyberSlop”来揭露危害指标,即组织中的人员利用他们的特权通过“网络垃圾”敛财。我希望通过增加不良行为的成本,鼓励发布研究的组织在谈论风险时采取更健康的观点。

我相信网络防御者可以通过指点和嘲笑来反击“网络垃圾”。它损害了防御能力。我们需要找回我们的声音。叹息停止,即使这意味着GenAI的金钱列车停止。

危害指标

战术、技术与程序

  • 毫无根据地随意将勒索软件团伙与生成式AI使用联系起来。
  • 将早于生成式AI出现的勒索软件团伙与生成式AI使用联系起来。
  • 说木马是勒索软件团伙,并错误地将其与AI联系起来。
  • 署名的首席研究员坐在支付研究费用的公司董事会中。
  • 在网上到处发布论文,然后在受到质疑时删除PDF并修改措辞,并假装论文只是网站“早期研究论文”部分的内容。

MIT的回应

我今天早些时候联系了MIT的公关人员,但尚未收到回复。如果我得到回复,将会更新这个故事。我可能还会发布进一步的故事,因为我发现了更多细节。

对供应商和学术研究者的呼吁

请与事件响应人员交谈。如果你被要求在你知道不真实的东西上署名,请不要署名。

CyberSlop 下一期

Safe Security在这方面并非孤例。可悲的是,在网络安全供应商放慢向其客户四处撒“网络垃圾”的迹象出现之前,这将是一个系列。更多的“网络垃圾”活动集群已被识别,用于狩猎的危害指标即将发布。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计