宣布推出AI/ML安全与防护培训课程

Trail of Bits宣布推出为期两天的AI/ML安全培训课程,涵盖模型基础、技术栈漏洞、风险评估及缓解策略等核心技术内容,帮助安全团队掌握AI系统特有的攻击面与防护方法。

我们今年将提供AI/ML安全与防护培训!

AI/ML技术的最新进展为企业提升运营效率和改进服务产品开辟了新天地。然而,将AI/ML集成到计算系统中会带来全新且独特的复杂性、风险与攻击面。在协助客户安全部署这些系统的实践中,我们发现其安全团队在AI/ML与系统安全的交叉领域存在知识缺口。为此我们开发了本培训课程,帮助组织填补这一缺口,并为团队提供保护AI/ML操作流水线及技术栈的工具。

培训课程内容

本课程专为需要理解传统计算基础设施上部署AI/ML系统特有安全挑战的安全工程师、ML工程师和IT人员设计。通过两天密集学习,您将获得从基础知识到可操作见解的全面认知,内容包括:

  1. AI/ML与网络安全基础
    学习AI/ML模型/技术的工作原理、能力边界及局限性,同时涵盖ML工程师需要了解的软件安全核心知识。

  2. AI/ML技术栈与操作流水线
    深入解析AI/ML模型从选择、配置、训练到部署及退役的全流程,并探讨相关专业技术工具。

  3. 漏洞与修复方案
    掌握已部署AI/ML系统特有的攻击面与漏洞类型,学习预防和修复这些漏洞的实战方法。

  4. 风险评估与威胁建模
    通过整体性方法,对AI/ML系统进行全面的风险评估和威胁建模,预判其对终端用户可能造成的安全风险。

  5. 缓解措施与风险控制
    实施针对AI/ML系统的现实风险缓解策略和安全控制方案,覆盖整个AI/ML操作流水线及生命周期。

赋能安全与AI/ML融合领域的团队

Trail of Bits将前沿研究与实战经验相结合,持续推动AI/ML安全保证的技术发展。我们的专家团队可帮助您安全地运用AI/ML技术实现业务升级。立即联系我们为团队安排现场(或虚拟)培训。个人学习者可通过表格提交信息,以便在开放公开课程注册时获得通知。

[Twitter] [LinkedIn] [GitHub] [Mastodon] [Hacker News]

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计