宣布AI/ML安全与防护培训
我们今年将提供AI/ML安全与防护培训!
AI/ML技术的最新进展为企业提升运营效率、提供更优质服务和产品开辟了新天地。然而,将AI/ML集成到计算系统中带来了全新且独特的复杂性、风险与攻击面。在帮助客户安全部署这些系统的实践中,我们发现其安全团队在AI/ML与系统安全的交叉领域存在知识空白。我们开发的培训课程旨在帮助组织填补这一空白,为团队提供保护AI/ML运维流水线和技术栈的工具。
培训内容
我们的课程专为需要理解传统计算基础设施上部署AI/ML系统独特挑战的安全工程师、ML工程师和IT人员设计。通过两天密集培训,我们将提供超越基础知识的AI安全全面认知,深入探讨这些技术具体危险与风险的实践洞察。通过教学培训与实战案例相结合,您将学习:
AI/ML与网络安全基础:本模块将学习AI/ML模型/技术的工作原理、能力边界与局限性。同时涵盖ML工程师可能陌生的关键信息安全与软件安全主题。
AI/ML技术栈与运维流水线:第二模块深入解析AI/ML模型的筛选、配置、训练、打包、部署及退役流程。同时探讨专业人员日常使用的AI/ML技术栈组件。
漏洞与修复方案:本模块聚焦已部署AI/ML系统中特有的攻击面与漏洞,并学习预防和修复AI/ML漏洞的有效方法。
风险评估与威胁建模:第四模块提供对AI/ML系统实施全面风险评估与威胁建模的实用技术。我们的整体方法论将帮助您评估AI/ML系统在部署环境中对终端用户可能造成的安全风险。
缓解措施与控制策略:最后模块学习如何为AI/ML系统实施切实可行的风险缓解策略与实用安全控制。我们的综合策略覆盖AI/ML运维流水线全生命周期。
赋能团队驾驭安全与AI/ML的交叉领域
Trail of Bits将尖端研究与实战经验相结合,推动AI/ML保障技术的前沿发展。我们的专家团队将助您充满信心地运用AI/ML技术推动业务升级。立即联系我们为团队安排现场(或虚拟)培训!个人学员可通过表格登记,以便在开放公开课程时获得通知。
欢迎通过Twitter、LinkedIn、GitHub、Mastodon、Hacker News分享本内容
页脚内容保留原始格式
近期文章
使用Deptective调查依赖项
系好安全带,AIxCC评分轮次正在进行中!
让智能合约超越私钥风险走向成熟
Go解析器中意想不到的安全隐患
评审Silence Laboratories首批DKLs23库的收获
© 2025 Trail of Bits.
采用Hugo与Mainroad主题生成。