我们今年将提供AI/ML安全与防护培训!
AI/ML技术的最新进展为企业提升运营效率和改进服务产品开辟了新天地。然而,将AI/ML集成到计算系统中会带来全新且独特的复杂性、风险与攻击面。在协助客户安全部署这些系统的实践中,我们发现其安全团队在AI/ML与系统安全的交叉领域存在知识缺口。为此我们开发了本培训课程,帮助组织填补这一缺口,并为团队提供保护AI/ML操作流水线及技术栈的工具。
培训课程内容
本课程专为需要理解传统计算基础设施上部署AI/ML系统特有安全挑战的安全工程师、ML工程师和IT人员设计。通过两天密集学习,您将获得从基础知识到可操作见解的全面认知,内容包括:
-
AI/ML与网络安全基础
学习AI/ML模型/技术的工作原理、能力边界及局限性,同时涵盖ML工程师需要了解的软件安全核心知识。 -
AI/ML技术栈与操作流水线
深入解析AI/ML模型从选择、配置、训练到部署及退役的全流程,并探讨相关专业技术工具。 -
漏洞与修复方案
掌握已部署AI/ML系统特有的攻击面与漏洞类型,学习预防和修复这些漏洞的实战方法。 -
风险评估与威胁建模
通过整体性方法,对AI/ML系统进行全面的风险评估和威胁建模,预判其对终端用户可能造成的安全风险。 -
缓解措施与风险控制
实施针对AI/ML系统的现实风险缓解策略和安全控制方案,覆盖整个AI/ML操作流水线及生命周期。
赋能安全与AI/ML融合领域的团队
Trail of Bits将前沿研究与实战经验相结合,持续推动AI/ML安全保证的技术发展。我们的专家团队可帮助您安全地运用AI/ML技术实现业务升级。立即联系我们为团队安排现场(或虚拟)培训。个人学习者可通过表格提交信息,以便在开放公开课程注册时获得通知。
[Twitter] [LinkedIn] [GitHub] [Mastodon] [Hacker News]