报告警示:AI正成为缺乏数据监管的无管控身份,企业安全面临新挑战

2025年人工智能数据安全状况报告揭示,尽管83%的企业在日常运营中使用AI,但仅有13%能清晰掌握其如何处理敏感数据。报告指出AI正像不受管制的身份一样运作,多数企业缺乏对AI行为的实时监控与治理能力,导致数据过度访问风险激增。

新闻快讯:报告警示AI正以缺乏数据监管的无管控身份运行

巴尔的摩,2025年12月2日,网络新闻专线——《2025年人工智能数据安全状况报告》揭示了企业安全中一个日益扩大的矛盾:人工智能的应用几乎无处不在,但其监管却仍然有限。

百分之八十三的组织已经在日常运营中使用人工智能,但只有百分之十三的组织表示他们能够清晰地掌握这些系统如何处理敏感数据。

该报告由Cybersecurity Insiders编制,并得到了Cyera研究实验室的研究支持。研究调查了来自不同行业和组织规模的921名网络安全和IT专业人士。

数据显示,人工智能正日益表现为一种不受管控的身份——一个非人类用户,它阅读速度更快,访问范围更广,并且持续运行。然而,大多数组织仍然使用以人为中心的身份模型,这些模型在机器速度下会失效。因此,三分之二的组织发现人工智能工具过度访问了敏感信息,百分之二十三的组织承认他们无法控制提示词或输出。

自主人工智能代理是最暴露的前沿领域。百分之七十六的受访者表示,这些代理是最难保护的系统,而百分之五十七的受访者缺乏实时阻止高风险人工智能行为的能力。可见性仍然不足:近一半的受访者报告对人工智能的使用毫无可见性,另有三分之一的受访者表示他们只有最低程度的了解——这使得大多数企业不确定人工智能在何处运行或接触了哪些数据。

治理结构也落后于应用。只有百分之七的组织拥有专门的人工智能治理团队,只有百分之十一的组织感觉有能力满足新兴的监管要求,这凸显了准备度差距正在迅速扩大。

报告呼吁转向以数据为中心的人工智能监督,包括持续发现人工智能使用情况、实时监控提示词和输出,以及将人工智能视为一个独特的参与者,并根据数据敏感性制定范围狭窄的访问权限的身份策略。

“人工智能不再仅仅是另一个工具——它正在企业内部扮演一个新的身份,一个从不休眠且常常无视边界的身份,”Cybersecurity Insiders的Holger Schulze表示。“如果没有可见性和强有力的治理,企业将继续发现他们的数据出现在本不应该出现的地方。”

正如报告所警告的:“你无法保护一个你无法识别的AI代理,你也无法管理你看不见的东西。”

完整的《2025年人工智能数据安全状况报告》可从以下网址下载:https://www.cybersecurity-insiders.com/portfolio/2025-state-of-ai-data-security-report-cyera/

关于Cybersecurity Insiders: Cybersecurity Insiders为安全领导者提供战略洞察,其基础是十多年的独立研究,并得到了一个由60万名网络安全专业人士组成的全球社区的信任。我们将不断变化的市场趋势转化为清晰、可操作的指导,帮助首席信息安全官(CISO)加强他们的项目,做出明智的技术决策,并预见新兴风险。

我们通过为CISO提供在嘈杂市场中导航所需的清晰度,同时帮助解决方案提供商与真实的业务优先级保持一致,来连接从业者和创新者。我们通过基于证据的研究、战略性的CISO指南、独立的产品评测、数据驱动的信息验证以及通过网络安全卓越奖和人工智能领导者奖获得同行认可的验证来推动这种一致性。更多信息请访问:https://cybersecurity-insiders.com。联系人:创始人Holger Schulze,Cybersecurity Insiders,holger.schulze@cybersecurity-insiders.com

媒体联系人: Andrea.Chilkott@cybersecurity-insiders.com

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计