网络安全预测2026:人为风险、AI数据泄露与下一场重大违规
回顾2025年,两大长期趋势仍在延续:首先,数据泄露事件持续不断且呈上升趋势;其次,再次出现了无人预料到的头条灾难。
第一点无需赘述;数据泄露如同空气污染——一种被接受的滋扰,只有当其严重到一定程度时,我们才会质疑为何要这样生活。关于第二点,我们可以参考近年来的重大事件:MoveIt、Crowdstrike、Snowflake,以及最近的Salesforce。从定义上讲,我们对这些问题毫无准备。这些事件本身都是独立的灾难,但纵观数年,一个模式已经浮现:重大的事件将会再次发生。
展望2026年,我们的目标是找出那些既可能发生又出乎意料的事件。任何明显正确的预测都无趣;那是统计回归的领域,而非战略推断。以下四项预测可能不一定准确,但希望能让你以不同的视角看待我们的现状。
1. 我们正处于人为风险管理复兴的边缘
威胁环境中的两个趋势将推动人为风险管理的创新。首先,是高级持续性内部威胁的兴起。我们谈论的不是一个因赌债而铤而走险的员工;我们谈论的是国家层面的对手,他们进行着长期的活动,并且已经成功渗透了数十家财富500强公司。
其次,有充分证据表明,安全意识培训需要从头开始重建。员工,甚至所有人,包括你的孩子和父母,都需要接受信息技术风险教育。但强制性的勾选框式培训并不能改善安全结果。这怎么可能呢?如果人类行为改变真的这么简单,那么每个看过Jenny Craig广告的人都应该能减掉十磅。
相反,数十年的科学研究最终给我们带来了确实有效的东西:Ozempic和下一代GLP-1药物。我们需要一种网络安全的"Ozempic"。就像最终带来GLP-1药物的漫长研究历程一样,这个市场的规模意味着我们最终会得到它。
2. 美国基础设施被全面渗透的影响无法被掩盖
说到大型组织的数据泄露,过去一年发现了几起高级持续性威胁(APT)组织对美国系统性基础设施拥有数月或数年访问权限的案例。“这次间谍活动很有可能窃取了几乎每个美国人的信息,” FBI副助理局长在谈到"盐台风"行动时说,该行动影响了约200个组织,包括美国主要的电信公司AT&T和Verizon。
虽然攻击者被清除当然是件好事,但很难相信其后续影响已得到完全补救。攻击者不仅仅是窃取了某些数据;他们能够多年来拦截几乎任何通信。就在今年,攻击者就能够利用从Gainsight一次攻击中窃取的凭证,对Gainsight的客户发起另一次攻击活动。当我们将这种模式推演到每个美国人时,感觉这次泄露事件的影响远未结束。
不过,这或许高估了其实际影响。年复一年,数据泄露事件一直在增加。未来可能与过去非常相似:数据泄露和身份盗窃事件不断增多。最大的变化或许是,我们再也无法假装惊讶了。
3. 平台力量的成功案例将成为明天的攻击目标
从Web 2.0时代兴起的一个有影响力的商业策略是"平台力量"的概念——即通过整合某些原本分散的资源,企业可以为所有需要该资源的人提供足够价值,同时也能为自己提取一部分价值。谷歌的搜索引擎就是这种模式的缩影:每个人都想在互联网上找到东西,谷歌是用户实现这一目标的工具,因此谷歌能够从互联网流量的总价值中分得一小部分(恰好价值数十亿美元)。
那些作为平台成功的企业,有大量价值流经其中,也为攻击者创造了诱人的目标。过去几年,我们在Cl0p对文件传输设备的攻击中看到了这种模式的开始。这些平台虽然没有谷歌那样的声望,但它们是敏感数据这种高价值资源流通的网关。
2025年,我们看到这种攻击模式扩展到一家伟大的科技平台公司:管理客户销售信息的最大软件提供商Salesforce。黑客通过各种手段(社交工程、窃取凭证和第三方集成)在全年内窃取了Salesforce实例的数据。
从MoveIT到Salesforce,贯穿其中的主线就是平台力量。尽管策略大相径庭(零日漏洞利用与社交工程和凭证窃取),但这些攻击有着共同的形式。通过整合价值,公司获得了利益,但也为攻击者绘制了一张藏宝图。
4. AI将持续泄露数据,但方式可能和你想象的不同。
2025年充满了各种破坏AI工具完整性的新方法的公告。这种情况将持续下去,因为无法阻止。AI工具的前提是接受任意输入,而生产力工具的前提是能够读取和/或写入重要的数据源。如果你允许任意输入进入一个可以执行代码的系统……嗯,那我可就帮不了你了。但这还不是真正的问题。
虽然AI漏洞肯定会在不久的将来被大规模武器化,但我们也将继续看到我们已有的问题:AI系统以"传统"方式泄露数据。我们认为AI模型是将不适当的敏感输入传输到泄露数据输出的渠道,但AI泄露的实际载体是系统配置错误。
多个AI聊天应用程序已经从Elasticsearch数据库或Kafka代理中泄露了用户对话。还有Deepseek数据库没有设置密码的案例。或者,2023年微软因云存储桶配置错误导致的数据暴露。所有这些都是典型的、前AI时代就存在的问题,并且继续是AI数据泄露的最常见方式。
此外,所有新兴的AI支持性技术也可能因配置错误导致敏感数据暴露,例如:Langflow、Flowise、Chroma、LlamaIndex、Streamlit和llama.cpp等等。
AI数据泄露将继续成为头条新闻,但这些文章将主要关于配置错误的数据库。