在DEF CON大会上,Trail of Bits的首席安全工程师Michael Brown与信息安全媒体集团(ISMG)的Michael Novinson坐下来讨论了AI/ML正在彻底改变安全的四个关键领域。以下是他们讨论的内容:
AI/ML技术超越传统软件分析的极限
随着摩尔定律在计算能力增长20年后放缓,传统的发现、分析和修补漏洞的方法带来的回报逐渐减少。然而,云计算和GPU使得一类新的AI/ML系统不再像传统方法那样受限。通过转向AI/ML或AI/ML与传统方法的结合,我们可以实现新的突破。
利用AI/ML解决复杂的安全问题
在使用传统方法解决计算问题时,我们采用规定性方法——向系统输入一个算法,然后产生解决方案。相比之下,AI/ML系统是描述性的;我们向它们输入大量正确和错误的示例,它们通过自己的建模算法学习解决问题。这在我们依赖高度专业化的安全工程师解决复杂、“模糊”问题的领域非常有益,因为现在AI/ML可以介入。这一点至关重要,因为更复杂的问题正在增加,但没有足够的专业知识来解决所有问题,而传统方法却力不从心。
保护AI/ML系统不同于保护传统系统
Trail of Bits的工程师一直在研究ML漏洞,包括数据和部署产生的漏洞,并发现影响AI/ML系统的漏洞与传统软件中的漏洞显著不同。因此,为了保护AI/ML,我们需要独特的方法,以避免遗漏大部分攻击面。因此,承认这些差异,并据此处理,在AI/ML系统开发的早期阶段加强安全,以防止代价高昂、持久的缺陷——避免困扰Web 2.0、移动应用和区块链早期迭代的不必要错误,这一点至关重要。
DARPA资助的项目,如AIxCC,将AI/ML应用于传统网络问题
DARPA的AI Grand Cyber Challenge(AIxCC)挑战团队开发AI/ML系统来解决传统安全问题。我们团队的提交作品Buttercup是七个晋级明年AIxCC决赛的决赛选手之一,将在其实时软件中自主检测和修补漏洞的能力上进行竞争。
以上就是全部内容!观看完整视频这里!
Trail of Bits处于将AI和ML整合到网络安全实践的前沿。通过我们参与像AI Cyber Challenge这样的倡议,我们正在应对当今的安全挑战,同时塑造网络安全的未来。
联系我们了解更多:www.trailofbits.com/contact
探索我们的AI/ML资源:
- 漏洞和审计
- Hugging Face
- LeftoverLocals
- YOLOv7
- 研究和博客
- 利用pickle文件攻击利用ML模型:第1部分
- 审计Ask Astro LLM问答应用
- PCC:大胆的一步,但并非没有缺陷
- 工具
- Fickling
- Privacy Raven
- AI安全培训
如果您喜欢这篇文章,请分享:
- GitHub
- Mastodon
- Hacker News