谷歌安全AI工作流开发经验分享 | RSA演讲
本演讲重点讨论谷歌安全AI框架(SAIF),该框架用于保护谷歌的AI系统和工作流。通过具体案例,本次演示涵盖了部署AI系统时必须解决的关键威胁,以及应实施的缓解措施,重点关注何时扩展现有系统与添加AI特定防护措施。
可用资源
- 视频资料
- PDF幻灯片
- 在线幻灯片
会议信息 RSA大会 - 2024年
演讲者 Elie Bursztein博士(谷歌与DeepMind AI网络安全技术与研究负责人)
相关主题
- 迈向安全可信AI:独立基准测试
- 大语言模型如何重塑网络安全格局
- AI网络安全:今日入门指南
- AI安全:五大入门建议
- RETVec:弹性高效文本向量化工具
技术框架特色 SAIF框架专门针对AI系统的独特安全需求设计,提供:
- 针对模型篡改的防护机制
- 数据投毒攻击检测体系
- 推理过程安全监控方案
- 传统安全措施与AI专项保护的集成策略
实践建议 演讲通过真实案例详细说明了:
- 识别AI系统特有威胁模式的方法
- 现有安全基础设施的扩展时机判断
- AI专用防护层的实施最佳实践
- 多层次防御架构的设计原则