Inside DEF CON:Michael Brown谈AI/ML如何彻底改变网络安全
在DEF CON大会上,Trail of Bits的首席安全工程师Michael Brown与信息安全媒体集团(ISMG)的Michael Novinson坐下来讨论了AI/ML正在彻底改变安全的四个关键领域。以下是他们讨论的内容:
AI/ML技术超越传统软件分析的极限
在计算能力提升20年后,摩尔定律开始放缓,传统的发现、分析和修补漏洞的方法带来的回报正在递减。然而,云计算和GPU使得一类新的AI/ML系统不再像传统方法那样受限。通过转向AI/ML或AI/ML与传统方法的结合,我们可以实现新的突破。
利用AI/ML解决复杂的安全问题
在使用传统方法解决计算问题时,我们采用规定性方法——向系统输入算法,然后产生解决方案。相比之下,AI/ML系统是描述性的;我们向它们提供大量正确和错误的示例,它们通过自己的建模算法学习解决问题。这在我们依赖高度专业化的安全工程师解决复杂、“模糊"问题的领域特别有益,因为现在AI/ML可以介入。这一点至关重要,因为更复杂的问题正在增加,但没有足够的专业知识来解决所有问题,而传统方法又力不从心。
保护AI/ML系统不同于保护传统系统
Trail of Bits的工程师一直在研究ML漏洞(包括数据产生的和部署产生的),并发现影响AI/ML系统的漏洞与传统软件中的漏洞显著不同。因此,为了保护AI/ML,我们需要独特的方法,以避免遗漏大部分攻击面。因此,承认这些差异,将其视为不同,并在AI/ML系统开发的早期阶段加强安全性以防止代价高昂的持久性缺陷至关重要——避免困扰Web 2.0、移动应用和区块链早期版本的不必要错误。
DARPA资助的项目(如AIxCC)将AI/ML应用于传统网络问题
DARPA的AI大网络挑战赛(AIxCC)要求团队开发能够解决传统安全问题的AI/ML系统。我们团队的提交作品Buttercup是进入明年AIxCC决赛的七个决赛选手之一,将在其实时软件中自主检测和修补漏洞的能力上进行竞争。
总结
Trail of Bits处于将AI和ML整合到网络安全实践的前沿。通过参与像AI网络挑战赛这样的倡议,我们正在应对当今的安全挑战,同时塑造网络安全的未来。
联系我们了解更多:www.trailofbits.com/contact
探索我们的AI/ML资源:
漏洞和审计
- Hugging Face
- LeftoverLocals
- YOLOv7
研究和博客
- 利用pickle文件攻击利用ML模型:第1部分
- 审计Ask Astro LLM问答应用
- PCC:大胆的前进步伐,但并非没有缺陷
工具
- Fickling
- Privacy Raven
AI安全培训
如果您喜欢这篇文章,请分享: Twitter | LinkedIn | GitHub | Mastodon | Hacker News