在董事会和安全运营中心,人工智能应用已成为热门话题。调查显示,78%的全球公司正在以某种形式使用AI,超过90%的公司至少在进行探索。
企业采用AI来降低成本、提高效率和获取洞察。在我们的年度网络技能基准报告中,我们发现44%的网络安全团队已经在日常工作中使用AI。但这究竟是战略采用的一部分,还是纯粹的生存本能?
许多组织仍在努力将AI炒作转化为实际价值,领导者们在技术集成和战略方面面临不确定性。大多数企业仍通过试点项目摸索前进,对投资回报率和规模化挑战缺乏清晰认识。
然而竞争压力迫在眉睫——那些更快掌握AI应用的企业将在生产力、能力和面对对手的风险方面取得领先优势(对手面临的官僚障碍要少得多)。
采用AI不再是一种选择;它正变得对生存至关重要。关键问题是如何负责任且有效地实施,特别是在赋能员工和保护业务安全方面。
为什么AI采用会失败
早期采用者报告了更快的决策速度、自动化的工作流程和新的产品创新。AI正在发现传统工具无法检测的异常,并承担像日志分类这样的繁琐任务。
另一方面,技术和战略上的不确定性正在踩刹车。
高管们担心幻觉、数据泄露、偏见和缺乏可解释性。将AI集成到遗留系统或云工作流程中并非易事;它需要新的技能、数据管道和计算基础设施。公司在实施AI工作流程时承认了其他挑战:
- 缺乏具备适当技能的人才(29%)
- 工具无意中增加了完成任务的时间(18%)
- 幻觉问题(16%)
还有管理AI使用的挑战:控制进出模型的数据,防止滥用,并遵守法规。结果是采取谨慎态度,意味着大量实验,但也伴随着一些瘫痪。没有人愿意落后,但没有策略或防护措施就匆忙推进可能会适得其反。
许多CISO对AI的潜力真正感到兴奋,但他们用真实的担忧来调和这种兴奋。这些问题正在推动对AI采用采取更全面的视角,配备合适的工具;这不仅仅是"我们能否使用AI?“的问题,而是"我们是否应该在这里使用它,以及如何安全地管理它?”
不作为的高昂代价
有一点是明确的:什么都不做,或剥夺团队的AI能力,是一种失败策略。
缺乏AI熟练度的团队效率降低且更加脆弱,而顶尖执行者正在将AI作为工作流程中的力量倍增器。威胁行为者已经在使用AI支持的漏洞利用技术高歌猛进,但太多防御者仍在研究如何将AI安全地集成到他们的工作流程中。
你延迟启用员工使用AI的时间越长,你就越向攻击者让出地盘。
犯罪团伙和国家支持的黑客正在迅速采用生成式AI来制作更具说服力的钓鱼诱饵,自动化漏洞发现并扩大攻击规模。我们可以轻易地说,不作为的成本远大于行动的成本。
信息很明确:如果你不拥抱AI,你的对手肯定会。
构建AI增强型团队
实现AI的好处意味着将这些工具交到你的员工手中。你的分析师、工程师、调查员和管理者最终将把AI能力转化为商业价值。
提供合适的工具:首先,选择并部署符合业务需求和政策的AI工具。这可能包括企业级AI平台(内置隐私控制)、经批准的编码助手、数据分析机器学习工具,甚至是供内部使用的自定义AI代理。通过提供经批准的工包,你可以减少员工转向随机、可能不安全的AI服务的诱惑。为此,我们推出了专用的HTB MCP服务器,提供统一的治理和可见性,同时将实时使用指标从单个安全端点传输到你的LMS中,以实现可衡量和高效的员工准备度。
将AI嵌入工作流程:仅有工具是不够的;你需要将它们集成到人们的日常流程中。鼓励试点项目,在这些项目中AI可以自动化痛苦的手动任务或支持当前操作。这在整个组织中建立了认同感,即AI不仅仅是一个闪亮的玩具,而是一个实用的助手,可以让每个人更高效、更有成效。我们的MCP提供AI指导的实验室,直接交付到团队已经工作的地方,具有一键部署和副驾驶功能。
建立防护措施和治理:一些公司对AI犹豫不决的一个原因是对未知的恐惧——如果AI说错了话或做了不安全的事情怎么办?治理策略有助于回答这个问题。为高影响用例实施审批工作流程。现代AI管理平台甚至允许你强制执行经批准的AI工具列表,并记录所有AI交互。在这个意义上,CTF事件对于测试、训练和基准测试安全团队的AI-人类协作变得重要。
AI安全:治理的一个相关方面是保护AI系统本身。就像我们保护数据库和端点一样,我们必须保护AI模型和AI代理。考虑到代理AI引入了新的攻击面,传统安全工具可能完全看不到这个攻击面。与Google合作的AI红队职位路径旨在为网络专业人员配备这些知识领域,在AI主导的威胁环境中这些知识现在至关重要。
技术本身不会带来成功——你还需要投资于人员和技能。随着AI重塑工作流程,它也在重塑你组织中所需的技能。要真正成为AI增强型团队,组织应将AI素养和技能提升作为其转型的一部分优先考虑。
AI增强型团队不是盲目信任自动化的团队。它是一个理解如何利用AI的速度和规模,同时在关键点应用人类判断和控制的团队。通过正确的培训和文化,员工不再将AI视为对其工作的威胁或神秘的黑匣子,而是开始将其视为可以提升他们绩效的合作伙伴。
谁准备好了代理AI安全?
我们已经进入了代理AI时代,AI系统不仅生成洞察,而且实际上代表我们采取行动。这承诺了令人难以置信的效率提升和新能力。但它也放大了技术采用的所有经典挑战:安全性、监督、道德和与业务目标的一致性。
现代AI模型在传统软件不会受到攻击的方式上很脆弱。提示注入、越狱、数据泄露、幻觉和流氓代理使组织面临传统安全工具无法捕捉的风险。年度审计和静态扫描器留下了关键的盲点。缺少的是一个结合AI代理和安全团队的现实的、连续的测试场地。
加入你的第一个代理AI CTF
Neurogrid是由Hack The Box主办的以AI为先的夺旗竞赛。专为AI研究人员、网络安全工程师、初创企业和企业设计,这个完全在线活动让AI代理在超现实的网络竞技场中相互对抗,以测试、基准测试和展示在进攻性安全方面的尖端AI能力。