巴尔的摩,马里兰州,2025年12月2日,CyberNewsWire
《2025年人工智能数据安全现状报告》揭示,企业安全领域存在一个日益扩大的矛盾:人工智能的采用几乎无处不在,但其监督却仍然有限。高达83%的组织已在日常运营中使用AI,但只有13%的组织表示他们能清晰掌握这些系统如何处理敏感数据。
该报告由Cybersecurity Insiders制作,并得到Cyera Research Labs的研究支持,汇集了来自不同行业和组织规模的921名网络安全和IT专业人士的反馈。
数据显示,AI越来越像一个不受治理的“身份”——一个非人类用户,它读取速度更快,访问范围更广,并且持续运行。然而,大多数组织仍然使用以人为中心的身份模型,这些模型在机器运行速度下会失效。因此,三分之二的组织曾发现AI工具过度访问敏感信息,23%的组织承认他们对AI的提示输入或输出没有任何控制措施。
自主AI代理是最暴露的前沿领域。76%的受访者表示这些代理是最难保护的系统,而57%的受访者缺乏实时阻止高风险AI行为的能力。可见性仍然薄弱:近一半的受访者表示对AI的使用情况没有可见性,另外三分之一表示只有最低限度的洞察力——这使得大多数企业不确定AI在何处运行或接触了哪些数据。
治理结构也滞后于采用速度。只有7%的组织拥有专门的AI治理团队,仅有11%的组织认为已准备好满足新兴的监管要求,这突显了准备差距正在迅速扩大。
报告呼吁转向以数据为中心的AI监督,包括持续发现AI使用情况、实时监控提示和输出,以及将AI视为一个独立“参与者”的身份策略,其访问权限应根据数据敏感性进行严格限定。
“AI不再仅仅是另一个工具——它正在成为企业内部的一个新身份,一个永不休息且常常无视边界的存在,”Cybersecurity Insiders的Holger Schulze表示。“缺乏可见性和强有力的治理,企业将继续发现他们的数据出现在本不该出现的地方。”
正如报告所警告的那样:“你无法保护一个你无法识别的AI代理,你也无法治理你看不见的东西。”
完整的《2025年人工智能数据安全现状报告》可通过以下链接下载:https://www.cybersecurity-insiders.com/portfolio/2025-state-of-ai-data-security-report-cyera/
媒体联系人:Andrea.Chilkott@cybersecurity-insiders.com
关于Cybersecurity Insiders
Cybersecurity Insiders为安全领导者提供战略洞察,其基础是十余年的独立研究,并受到一个由600,000名网络安全专业人士组成的全球社区的信任。我们将不断变化的市场趋势转化为清晰、可操作的指导,帮助首席信息安全官(CISO)强化其项目、做出明智的技术决策并预见新兴风险。
我们通过将从业者和创新者联系起来,为CISO提供在嘈杂市场中导航所需的清晰度,同时帮助解决方案提供商与实际业务优先级保持一致。我们通过基于证据的研究、战略性CISO指南、独立产品评测、数据驱动的信息验证以及通过网络安全卓越奖和AI领导者奖进行的同行验证认可来推动这种一致性。
更多信息:https://cybersecurity-insiders.com
联系人
创始人:Holger Schulze Cybersecurity Insiders holger.schulze@cybersecurity-insiders.com