CyberSlop — 认识新的威胁行为者:MIT与Safe Security
网络安全厂商兜售无稽之谈并不新鲜,但最近我们面临一个新的维度——生成式AI。这使得厂商——以及教育机构——能够为了利润而推销网络垃圾。
我创造了一个新词——cyberslop(网络垃圾)——指受信任的机构利用关于生成式AI网络威胁的无根据声明来牟利,滥用其公认的专业知识。
我正在启动一个名为CyberSlop的系列,记录一系列相关活动。
活动集群一:MIT与Safe Security
今年早些时候,MIT发布了一份工作论文并创建了一个网页,声称80%的勒索软件攻击使用生成式AI。以下是他们网站的截图:
存档链接:https://archive.ph/SckSr
以下是论文的截图:
这篇论文几乎完全是胡说八道。它糟糕得令人震惊。如此糟糕,以至于不知道从何开始批评。
论文署名包括MIT的Michael Siegel和Sander Zeijlemaker,以及Safe Security的Vidit Baxi和Sharavanan Raajah。我不明白参与人员为何没有意识到问题。甚至连研究的核心前提都不合理。
来自MIT的Michael Siegel与来自MIT的Debayan Gupta一起坐在Safe Security的技术顾问委员会中。
出于某种原因,这一点在PDF中未披露。
我在网上强调了这篇论文,因为CISO们不断将其转发给我,说我在生成式AI不是勒索软件团伙运营的主要部分这一点上错了(顺便说一句,它不是——我追踪它们)。于是我阅读了论文,开始在网上发布相关内容,然后它消失了:
在我开始之前,Cynthia Brumfield报告:
考虑到你上面看到它是如何呈现的,我对有人感到困惑感到惊讶。作者还在他们自己的会议上进行了展示:
它还在多个MIT PDF、页面和网络安全媒体中出现。
PDF本身已被替换为一个声称你正在访问MIT网站“早期研究论文”部分的文件……这,好吧,是一个角度——当然不是一个好角度,考虑到它传播的范围有多广。
MIT自己的网站,没有称其为“早期研究论文”
我注意到MIT网站经历了一些重写,例如从这样:
变成这样:
生成式AI的叙述被完全移除,并且没有任何地方注明有任何更改。
那么,论文有什么问题?更恰当的问题可能是,有什么是对的?
我让Marcus开始:
论文将几乎每个勒索软件团伙都归为使用AI,但没有来源(好吧,他们似乎引用了CISA——但CISA并没有这么说)。这当然是无稽之谈。
论文谈论诸如Emotet之类的东西是类似AI的(完全胡说八道,它也是一个历史威胁),在生成式AI出现之前就消失的勒索软件团伙使用GenAI……这里发生的事情太多了,难以置信这样的内容被如此公开。
论文从互联网上消失了……尽管如果你想要一笑(尽管是以这类事情对下游防御者造成的伤害为代价),你可以在互联网档案馆永远找到它:
即使在今天,《金融时报》还引用了这篇文章:
《金融时报》文章的链接指向MIT默默移除声明的网站。
这里真的有太多错误,嗯,令人沮丧。作者一定知道这是胡说八道——一旦在网上受到批评,它就被清除了。它的首页上带有MIT Sloan网络安全总监的名字,并且数月来在网上广泛传播而未受质疑。
那么这里发生了什么?
CISO们被生成式AI威胁吓坏了。因为厂商和现在本应更清楚的教育机构吓唬他们——不是因为实际威胁水平,而是出于经济动机。
在这种情况下,MIT Sloan由Safe Security支付费用,报告的主要研究员坐在Safe Security的董事会。Safe Security提供Agentic AI解决方案。MIT的报告推销需要一种新方法,引用链接指向Safe Security网页。Safe Security引用与MIT共同开发他们的产品。
激励措施……在这里管理不善,行业非常病态。每个人都只是随波逐流,结果导致CISO获得错误信息。
生成式AI热潮始于2022年。已经超过3年了。如果你问任何严肃的网络事件响应公司,什么初始访问向量驱动事件,他们都会告诉你经典方式——凭据滥用(来自信息窃取者)、针对未修补边缘设备的漏洞利用等。
这不是理论——这来自以响应网络事件为生的人的实际事件响应数据。我从事这一行。生成式AI勒索软件并不存在,MIT应该为自己声称研究了2800起勒索软件事件的数据并发现80%与生成式AI相关而感到深深的羞愧。MIT在被点名后删除PDF是有原因的。
如果你不相信我,你可以询问大量真正的专家:
或者甚至询问AI聊天机器人,如果那是你唯一相信的(讽刺,我知道):
或者去阅读年度厂商报告。
应该注意——CrowdStrike的报告一次也没有提到生成式AI或GenAI……但他们在最后总结道,组织需要做的第一件事是实施他们的agentic AI产品,因为“威胁行为者采用AI以更快地攻击、扩大运营并逃避检测”——但完全没有提供这方面的证据。
你可以做的最好的一件事来应对现实世界的网络事件——而不是LinkedIn上的GenAI色情内容——是贯彻基础安全。
例如,网络钓鱼就是网络钓鱼。如果你的整个组织可能因为一封网络钓鱼邮件而瘫痪,你不需要GenAI就会破产——你只需要有人从AOL账户用蹩脚的英语给100名员工发邮件。总会有人打开它。
错误在于你乘坐的飞机如果乘客不正确调整座椅,前部可能随时脱落——这不是乘客的过错,告诉他们不要按下“前部脱落”按钮并不是好的管理。
没有人会否认生成式AI可能被滥用。但每个处理现实世界勒索软件事件的人都会告诉你,GenAI不是现实世界的问题——在每种情况下,都是缺乏安全基础。
我花了几分钟在这上面
你需要通过实施基础网络安全和IT来使你的组织具备网络弹性——到那时,你将有能力应对未来的威胁。生成式AI的潜力更多的是相同的东西。
与让你进入新产品和服务的生态系统相比,客户实施基础安全对厂商(或任何AI特定厂商)来说赚钱不多。记住那个激励。
不要这样做。打破这个习惯。
对此能做些什么?
我认为我们,战壕中的网络安全从业者,需要发声,能够指出无稽之谈。权力平衡被错误地倾斜了。CyberSlop,这个系列,将为此提供一个场所。
Cyberslop这个词,就是你的力量。让我们非常清楚,当事情经不起考验时需要调查,并指出兜售网络垃圾的组织。
我认为MIT不应该允许研究人员为他们担任董事会成员的组织提交论文,甚至在论文中没有任何关系披露——他们真的需要审视这里发生的整体情况,因为它感觉不对。显然,论文需要消失并进行广泛的同行评审——包括由实际上响应过勒索软件事件的某个人,任何人。
如果你查看Safe Security的网站,它充满了关于生成式AI的令人困惑的声明——如此疯狂,以至于也不知道从哪里开始。为什么MIT Sloan的员工坐在这家公司的董事会?
Emotet不是一个勒索软件家族,也没有使用AI,Ryuk从未使用AI,LockBit没有使用AI模型——网站充满了垃圾。
我打算使用CyberSlop来指出危害指标,即组织中的人利用他们的特权通过网络垃圾获取财富。我希望这能鼓励发布研究的组织通过对不良行为施加成本,围绕他们谈论风险的方式采取更健康的观点。
我相信网络防御者可以通过指出并嘲笑网络垃圾来反击。它损害了防御能力。我们需要夺回我们的声音。叹息停止,即使这意味着GenAI金钱列车停止。
危害指标(IoCs)
- scams.mit.edu
- 18.4.38.193
- safe.security
- https://cams.mit.edu/wp-content/uploads/Safe-CAMS-MIT-Article-Final-4-7-2025-Working-Paper.pdf
- https://safe.security
- Michael Siegel
- Sander Zeijlemaker
- Vidit Baxi
- Sharavanan Raajah
请花点时间取笑Safe Security的网站
战术、技术和程序(TTPs)
- 毫无根据地随意将勒索软件团伙与生成式AI使用联系起来。
- 将生成式AI出现之前的勒索软件团伙与生成式AI使用联系起来。
- 说特洛伊木马是勒索软件团伙,并错误地将它们与AI联系起来。
- 主要命名研究员坐在支付研究费用的公司董事会。
- 在网上到处发布论文,然后在受到质疑时删除PDF并重新措辞,假装论文只是在网站的"早期研究论文"部分。
MIT的回应
我今天早些时候联系了MIT的公关人员,但尚未收到回复。如果我得到回应,我将更新这个故事。我可能还会运行进一步的故事,因为我发现了更多细节。
对厂商和学术研究者的行动呼吁
请与事件响应人员交谈。如果你被要求在某件你知道不真实的事情上署名,不要署名。
CyberSlop的下一期
Safe Security在这里并不孤单。可悲的是,这将是一个系列,直到有迹象表明网络安全厂商减慢在他们客户身上到处撒他们的网络垃圾。更多的网络垃圾活动集群已被识别,狩猎的IoC即将到来。