Forescout Vedere Labs揭示“氛围黑客”威胁尚处早期阶段
Forescout的Vedere Labs发布了新研究,审视生成式AI在网络攻击中构成的现实威胁。尽管公众对“氛围黑客”(描述AI驱动的自主黑客行为)日益担忧,但研究结果表明该威胁仍处于早期阶段。基于50多个生成式AI模型的模拟测试,研究人员得出结论:虽然该技术显示出滥用潜力,但尚未构成迫在眉睫的危险。
研究评估了主流大语言模型(LLMs)在执行漏洞研究(VR)和攻击开发(ED)相关任务方面的有效性。研究涵盖商业、开源和地下AI模型。
关键发现包括:
- 高失败率:48%的模型未能通过第一个VR任务,55%未能通过第二个;66%未能通过第一个ED任务,惊人的93%未能通过第二个。
- 不稳定性和不一致性:大多数模型不可靠,通常在相同提示下产生不同输出,经历超时或生成不可用的结果。
- 无端到端威胁:没有一个模型能够完成攻击流程的所有必需阶段,限制了当前现实威胁的可行性。
- 商业与地下工具对比:商业模型表现最佳,但仅三个生成了可工作的攻击程序。开源工具表现最差,而免费地下模型表现更好但存在可用性和输出问题。
Forescout的EMEA高级安全研究员Michele Campobasso表示:“当前这波AI普及浪潮中,无论是否AI辅助,威胁行为者可能继续依赖熟悉的战术、技术和程序(TTPs)。AI生成的攻击程序仍然只是攻击程序,可以通过修补检测、阻止或缓解。
这意味着网络安全的基础原则保持不变。网络卫生、深度防御、最小权限、网络分段和零信任等核心原则仍然至关重要。对风险和暴露管理、网络安全以及威胁检测和响应的投资不仅仍然有效,而且比以往更加紧迫。
如果AI降低了发起攻击的门槛,我们可能会看到攻击变得更加频繁,但不一定更加复杂。组织不应重新发明防御策略,而应专注于在所有环境中更动态、更有效地执行这些策略。”
完整博客可在此处查看:https://www.forescout.com/blog/artificial-exploits-real-limitations-how-ai-cyber-attacks-fall-short/