LW圆桌会议:第四部分,接受考验的信任框架与对可验证系统的推动
信任在2025年以熟悉和崭新的方式崩塌了。
旧的信号失效了。身份变得模糊。凭证被绕过,多因素认证被规避,甚至浏览器会话也变成了攻击面。与此同时,人工智能驱动的冒充行为模糊了人类、机器人和欺诈之间的界限。
这是四部系列文章的第四部分。
安全团队不仅仅是在保护数据。他们还在进行瞬间判断:信任什么、信任谁——以及何时可以撤销这种信任。
在我们2025年终圆桌会议的最后一部分,我们将探讨当传统信任框架不再有效时会发生什么。从凭证泛滥和联合身份认证,到会话劫持和供应商访问,当今的假设正在技术栈的每一个层面经受压力测试。
这里介绍的领导者们并未提供一刀切的答案。但他们确实提出了来之不易的教训——并为2026年可信赖系统可能的样子提供了实用的信号。
Wango
Cando Wango, All Covered公司国家安全服务解决方案架构师 影子人工智能和自主代理正迫使组织假设事件会发生,而不是寄希望于预防。随着自动化系统承担更多决策路径,人类的判断仍然至关重要。当需要可审计的证据时,第三方暴露和自我声明的安全态势变得不那么可接受。弹性正从技术追求转变为业务差异化因素。治理的目标是快速恢复,而不仅仅是阻止威胁。下一个时代取决于经过验证的准备状态,而非声明。
Bavisi
Jay Bavisi, EC-Council集团总裁 2025年,问责制发生了转变——从政策文件转向个人责任。合规框架可以指定责任方,但它们无法确保这些个人已准备好采取行动。大多数组织用更多的文书工作来回应,而非提升能力。2026年,真正的信任将取决于指定的响应者能否解读人工智能辅助的攻击并实时响应。缺乏人类熟练度的治理无法满足人们对可验证的个人层面能力日益增长的期望。
Nichols
Brian Nichols, Baker Tilly公司负责人 人工智能正在同时变成矛和盾。深度伪造冒充将导致至少一起重大数据泄露,其利用人类信任的速度将超过防御适应的速度。与此同时,防御者将敏感数据输入人工智能系统,而这些系统本身又会造成暴露。安全团队需要在身份和敏感数据方面建立治理、红队测试和清晰的验证。仅将AI视为防御优势,忽视了攻击者如何快速地将每次新发布武器化。
Thorsteins
Thordis Thornsteins, Panaseer公司首席AI数据科学家 智能体人工智能将重开“狂野西部”,因为自主系统的决策缺乏早期工具那样的监督。微小的认证漏洞或配置错误都可能急剧扩大。随着AI触及更多基础设施,治理必须迅速成熟,否则风险将超过控制能力。关键在于全面了解AI系统访问了什么、有强大的控制措施来限制意外操作,以及让团队理解自主行为如何改变传统的安全假设。
Mercer
Laurie Mercer, HackerOne公司解决方案工程高级总监 AI的扩展速度超过了大多数安全团队的处理能力。但信任并非来自数量,而是来自框架。在HackerOne,我们看到“仿生黑客”正在涌现:由自主工具增强的人类。他们处理噪声,我们做出判断。领导者们正在采用AI,但明智的做法是从一开始就建立清晰的监督、人类背景和透明度。
Bird
Richard Bird, Singulr.ai公司首席安全官 我认为AI问责制正在成为开展业务的入门成本。许多组织成立了监督小组,但很少能真正了解AI在做什么,或建立真正的所有权。领导者无法保护他们看不到的东西。问责制意味着知道谁在使用AI、接触了哪些数据、如何验证输出,以及当出现问题时由谁负责。如果领导者无法实时证明其控制力,那么合规说辞就无关紧要。
Camacho
Chris Camacho, Abstract Security公司首席运营官 太多组织仍然以“打勾”的心态对待网络风险。我正看到这种状况开始转变,因为董事会更多地参与进来,安全团队也在推动更严格的遥测和检测。框架正在演进,但差距依然存在——特别是在将控制措施映射到业务成果时。我们需要更好的跨团队整合、更好的跨工具自动化,以及更清晰的关于弹性实际含义的责任划分。
Denis
Alethe Denis, Bishop Fox公司高级安全顾问 目前围绕深度伪造存在很多恐慌,但我认为这转移了错误方向的注意力。我看到团队运行基于恐惧的测试,但这些测试与现实世界的风险并不匹配。深度伪造确实是一个问题,但并非首要问题。我们需要将对立的测试锚定在实际的风险状况上,并加倍努力阻止攻击者每天都在使用的冒充策略。
Painter
Aaron Painter, Nametag公司首席执行官 零信任仍然依赖于识别谁在请求访问。深度伪造和语音克隆表明,罪犯在攻击系统之前先冒充人。太多的身份控制依赖于传统方式,而非可靠的识别。加强身份被断言和恢复的那一刻成为了基础。识别迫使攻击者必须攻破用户口袋里的安全硬件。当身份认证能跟上现代冒充手法时,信任框架才能发挥作用。
Balabanskyy
Artur Balabanskyy, Tapforce公司联合创始人兼首席技术官 在2025年,我们看到安全的成功取决于共同的清晰度。表现最好的组织是那些尽早明确控制责任的组织——尤其是在第三方生态系统中。在信任崩塌的地方,责任往往是模糊的。加强信任框架之间的透明度和协调现在成为首要任务。这是弹性和信任相交的地方——也是许多团队仍需努力的地方。
Anurag Gurtu
Anurag Gurtu, Airrived公司首席执行官 2026年,首席信息安全官们将开始淘汰工具,而不是增加更多。我们已经达到了点状产品疲劳的顶峰,旧的仪表板模式已经崩溃。AI代理现在可以阅读、推理和行动——跨孤岛自动化威胁检测、调查和修复。安全运营中心不仅在使用AI,他们正在与AI一起运作。今年,AI将从副驾驶转变为同事,信任将从工具转向自主系统。
Carielli
Sandy Carielli, Forrester公司副总裁、首席分析师 量子计算的进步和后量子标准正在推动各国政府发布迁移指南,但时间表和批准的算法因国家而异。组织对何时传统公钥密码学变得不可接受以及选择哪种替代方案感到困惑。监管压力正在加速投资,但全球协调仍然不明朗。进入2026年,挑战在于在量子能力超越准备之前,协调跨境迁移。随着公司试图负责任地规划,清晰性已然姗姗来迟。
Brickman
Danny Brickman, CyberArk公司首席软件工程师 AI并未消除身份风险。它放大了攻击者移动的速度和访问权限扩散的范围。团队正在意识到,身份认证已成为现代环境的主要控制手段。无论是AI攻击还是传统工具攻击,权限滥用仍然是共同点。弹性取决于对人机身份强制执行最小权限和可见性。自动化有帮助,但身份卫生状况仍然决定着攻击者能造成多大损害。
McDaniel
Dwayne McDaniel, GitGuardian公司高级开发者倡导者 信任框架只有在改变日常运营时才重要。平台和身份与访问管理团队现在拥有非人类身份治理权,密钥必须在持续集成和生产环境中被控制,而不仅仅是在通用漏洞披露数据库中上报。软件物料清单的采用在纸面上看起来不错,但在事件中,关键问题仍未得到解答。2026年,责任将落在那些将信任理念转化为可在生产中运作的真实遥测和撤销路径的团队身上。
Prichici
George Prichici, OPSWAT公司产品副总裁 攻击者正在利用过时的文件概念和信任集成行为所创造的盲点。新格式和AI接口在很少监督的情况下处理敏感数据,创造了绕过传统控制的路径。当第三方和副驾驶打开安全团队从未预料到的侧信道时,信任就成了薄弱点。加强保障意味着将合作伙伴、API和供应链视为活跃的攻击面,而不是简单的集成。
Soroko
Jason Soroko, Sectigo公司高级研究员 软件物料清单的采用已从实验进入真实的生产工作流程。供应商正在将其生成功能构建到持续集成流水线中,而不是将软件物料清单视为单独的文件。漏洞工具正在直接集成软件物料清单数据,这加速了发现和解决过程。现在的重点是简化分发和交付,以便下游消费者能够信任他们收到的东西。软件供应链安全取决于软件物料清单成为每个构建和交付步骤中的常规信号,而非附属文件。
Astorino
John Astorino, Auvik公司首席运营官 影子人工智能将从孤立的笔记本转变为跨系统行动的自主进程。随着代理大规模运行,治理必须考虑到来源、可解释性和持续监控。可审计性和异常检测需要内置于每一个自动化工作流程中,而不是事后添加。自主系统迫使组织用策略执行和可见性来监测交互。合规既关乎控制自动化行为,也关乎保护传统的用户活动。
Lefkowitz
Josh Lefkowitz, Flashpoint公司首席执行官 自动化正在将攻击节奏推高到团队实际难以跟上的程度。2026年,真正的风险在于智能体人工智能自主攻击API和身份系统等软目标。我们绝对不能在情报层面用AI取代人类判断。唯一能够扩展的防御是人工主导、AI辅助,并有目的地加以利用以领先于指数级增长的威胁曲线。
McCammon
Keith McCammon, Red Canary公司联合创始人 软件供应链攻击正从广泛利用转向精准打击。攻击者潜入开源社区内部,然后在信任度最高时发起攻击。真正的风险不再仅仅是易受攻击的代码,而是那些看起来合法、直到某个时刻才转向攻击的代码。信任本身变成了攻击面,随着精准取代数量成为2026年的趋势,软件保证也从“打勾项”转变为基本控制。
Kirkwood
Kevin Kirkwood, Exabeam公司首席信息安全官 AI供应链攻击可能来自在合法集成内部运行的代理,而不是明显的恶意软件。这些代理可以收集内部数据,向下游移动,并以保持隐藏的方式进行复制。当出现从未声明的组件时,软件物料清单的授权可能成为实时异常检测的基础。可防御性设计的概念始于可见性。威胁可能已经存在于受信任的生态系统内部。
Underkoffler
Kayla Underkoffler, Zenity公司人工智能安全与政策倡导总监 人工智能的共担责任模型早就该在法庭上接受检验了。欧盟《人工智能法案》规定了技术栈各方的责任,但它们仍是理论上的。2026年,公司需要在监管机构跟进之前,在构建者、部署者和代理之间实现可操作的问责制。真正的问题将是:当一个多供应商的人工智能系统失败时,谁真正承担风险?
Weiner
Lee Weiner, TrojAI公司首席执行官 文档有帮助,但它不是控制。软件物料清单和AI模型卡描述的是预期行为,而非实际行为。行为风险存在于运行时。2026年,我们将看到企业从基于纸张的信任框架转向实时执行。这意味着持续测试、行为监控和操作控制平面,以验证AI代理实际做了什么——而不仅仅是供应商说它们应该做什么。
Kuchler
Keith Kuchler, Sumo Logic公司首席产品与技术官 我们终于看到围绕保护软件交付流水线出现了真正的势头——但工具仍在迎头赶上。在我看来,真正的收获来自于我们将互补策略结合起来,并在整个技术栈中“左移”。没有任何单一的创新能解决所有问题。但当安全开发实践端到端协调一致时,我们才能真正开始以有意义的方式降低风险。是集成和编排——而非银弹——将使信任框架成为现实。
Saayman
Lyal Saayman, Zenarmor公司产品经理 行业倡议提高了透明度,但架构的不透明性限制了信任。当检查和执行发生在未知的跳跃节点时,你无法构建强大的框架。验证必须取代认证。安全依赖于端到端地查看决策路径,并消除用户禁用旧工具时出现的盲点。当架构透明且源头可强制执行时,信任才会增长。2026年,信任框架将评判基础设施,而非供应商声明。
Kumar
Mayank Kumar, DeepTempo公司创始人工智能工程师 2026年,信任将被武器化。攻击者将通过干净的基础设施、受信任的账户和正常的API进行攻击——没有异常,没有警报。检测必须从问“发生了什么”演变为问“为什么”。如果一个已知实体开始朝着恶意目标行动,那么其意图就是新的信号。规则和指标跟不上。只有追踪攻击者跨序列逻辑的模型才能给防御者一个战斗的机会。
McCurdy
Ryan McCurdy, Liquibase公司副总裁 软件物料清单和供应链指南提高了透明度,但最具破坏性的故障却来自绕过审查的内部变更。Cloudflare和AWS的中断始于单一的权限和配置更新。信任框架描述了软件在某一时刻的状态,但它们难以捕捉其如何演变。我们需要整个变更路径的透明度。缩小运行时信任和变更层信任之间的差距才是取得进展的地方。
Addepalli
Srinivasa Addepalli, Aryaka公司首席技术官 AI防火墙控制正在移入安全访问服务边缘的数据平面,在那里,跨云、边缘和零信任网络的执行是一致的。企业应用将附带嵌入式副驾驶,通过SaaS和内部大语言模型接触敏感数据。安全访问服务边缘将位于用户和这些副驾驶之间,将执行转变为内置控制,而非附加组件。当AI理解含义而传统模式不再足够时,语义数据防泄露就变得必要。
Callan
Tim Callan, Sectigo公司首席体验官 当攻击者破坏机器身份和代码签名时,软件信任就会破裂。对手知道现代环境依赖自动化的信任决策,因此他们以证书和私钥为目标,而不是边界控制。组织需要对代码来源进行持续验证,并对机器身份进行生命周期管理。数字信任依赖于强大的颁发、轮换和撤销机制。供应链安全在于证明每个工件在生产中执行前都是合法的。
Acohido
普利策奖得主商业记者Byron V. Acohido致力于提高公众意识,探讨如何使互联网变得应有的私密和安全。