在DEF CON大会上,Trail of Bits的首席安全工程师Michael Brown与信息安全媒体集团(ISMG)的Michael Novinson进行了对话,重点讨论了AI/ML正在彻底改变安全领域的四个关键方面。以下是他们的讨论要点:
AI/ML技术超越传统软件分析的局限
随着摩尔定律在计算能力持续增长20年后逐渐放缓,传统的漏洞发现、分析和修补方法带来的回报日益减少。然而,云计算和GPU使得新一代AI/ML系统不再像传统方法那样受到限制。通过转向AI/ML或结合AI/ML与传统方法,我们能够实现新的突破。
利用AI/ML解决复杂安全问题
使用传统方法解决计算问题时,我们采用规定性方法——向系统输入算法,然后产生解决方案。相比之下,AI/ML系统是描述性的;我们向它们提供大量正确和错误的示例,它们通过自己的建模算法学习解决问题。这在我们依赖高度专业化的安全工程师解决复杂、“模糊"问题的领域特别有益,因为现在AI/ML可以介入。随着更复杂问题的不断增加,而专业专业知识又不足以解决所有问题,传统方法显得力不从心,这一点至关重要。
保护AI/ML系统与传统系统大不相同
Trail of Bits的工程师一直在研究机器学习漏洞(包括数据源和部署源),发现影响AI/ML系统的漏洞与传统软件中的漏洞存在显著差异。因此,为了保护AI/ML,我们需要独特的方法,以避免遗漏大部分攻击面。承认这些差异,并据此采取相应措施,在AI/ML系统开发早期就进行强化,以防止代价高昂的持久性缺陷——避免重蹈Web 2.0、移动应用和区块链早期版本所犯的不必要错误。
DARPA资助的AIxCC等项目将AI/ML应用于传统网络问题
DARPA的AI网络大挑战赛(AIxCC)要求团队开发能够解决传统安全问题的AI/ML系统。我们团队的参赛作品Buttercup是进入明年AIxCC决赛的七个最终入围者之一,将在真实软件中自主检测和修补漏洞的能力方面展开竞争。
总结
Trail of Bits处于将AI和ML集成到网络安全实践的最前沿。通过参与像AI网络挑战赛这样的倡议,我们正在应对当今的安全挑战,同时塑造网络安全的未来。
联系我们了解更多:www.trailofbits.com/contact
探索我们的AI/ML资源:
漏洞和审计
- Hugging Face
- LeftoverLocals
- YOLOv7
研究和博客
- 利用pickle文件攻击利用ML模型:第一部分
- 审计Ask Astro LLM问答应用
- PCC:大胆前进,但并非没有缺陷
工具
- Fickling
- Privacy Raven
AI安全培训
如果您喜欢这篇文章,请分享至: Twitter、LinkedIn、GitHub、Mastodon、Hacker News