2020年机器学习安全规避竞赛:攻防对抗的技术挑战

微软联合CUJO AI等合作伙伴举办2020年机器学习安全规避竞赛,旨在提升恶意软件对抗ML模型的攻防技术。竞赛分为防御者挑战和攻击者挑战,采用黑盒与白盒不同威胁模型,推动对抗机器学习在安全领域的研究与应用。

机器学习安全规避竞赛2020邀请研究人员参与攻防对抗

机器学习(ML)在网络安全中日益重要,因为攻击者不断进化策略以规避检测。随着机器学习技术的进步和复杂ML模型的开发,安全专业人员利用这些工具保护云环境,而攻击者则忙于开发旨在规避ML模型的恶意软件。

为主动应对这一挑战,微软与合作伙伴CUJO AI、VMRay和MRG Effitas共同赞助了一场机器学习安全规避竞赛,提供了一个独特的真实环境,让研究人员锻炼防御和攻击能力。重要的是,该竞赛鼓励ML从业者和网络安全专业人士参与。

这项新竞赛建立在2019年8月DEFCON 27上AI Village举办的类似竞赛基础上,该竞赛邀请参赛者对静态恶意软件ML模型进行白盒攻击。2019年竞赛中,多名研究人员发现了完全同时绕过三个ML反恶意软件模型的方法。其他数十名研究人员在规避这些开源模型方面取得了高分。几位顶级参赛者发表了他们的发现——这是竞赛的明确目标。

2020年机器学习安全规避竞赛同样旨在揭示对抗行为的对策,并提高对恶意软件可能规避ML系统多种方式的认识,以便更好地防御这些技术。顶级研究人员必须发表其检测或规避策略才能赢得竞赛。

从两个方向攻击恶意软件挑战

微软在2019年竞赛的基础上,今年提供了两个不同的挑战:增加了防御者挑战,并将攻击者挑战从“白盒”改为“黑盒”威胁模型。

防御者挑战将于2020年6月15日至7月23日进行,通过提供新颖的防御供攻击者规避,促进对抗攻击对策的开发。提交的防御必须在检测真实恶意软件时通过现实测试,并保持中等误报率。

攻击者挑战将于2020年8月6日至9月18日进行,提供一个黑盒威胁模型,提供对托管反恶意软件模型的API访问,包括在防御者挑战中成功开发的模型。参赛者可以使用“硬标签”查询结果发现如何规避它们。最终提交的样本将在沙箱中引爆,以验证其是否仍能运行。除了规避率,参赛者所需的API查询总数也将影响最终排名。

每个挑战的冠军和亚军将分别获得大奖(2500美元Azure积分)和一等奖(500美元Azure积分)。个人或团队可在挑战窗口期间通过https://mlsec.io/注册参加竞赛。

有兴趣参加此挑战的研究人员可以了解2019年发表发现的顶级参赛者,以及2020年竞赛合作伙伴CUJO AI、VMRay和MRG Effitas。

微软为何与研究人员和行业合作伙伴合作

安全形势不断演变,微软致力于与研究人员、从业者和行业合作伙伴合作,揭示、沟通并努力解决客户面临的挑战,造福整个技术生态系统。这一承诺延伸到机器学习,它已成为信息安全的极其积极的工具。

尽管针对计算机视觉模型的规避攻击(其中图像像素被微妙修改)已成为标志性案例,但本竞赛旨在将对抗ML研究推进到恶意软件领域,这是一个更复杂的安全挑战,具有更现实的威胁模型和复杂约束。

本竞赛的一个预期结果是鼓励具有规避图像识别系统经验的ML研究人员熟悉信息安全的常见威胁模型。同时,安全从业者可以更深入地了解在他们已经熟悉的领域中保护ML系统的意义。

可信机器学习计划

微软赞助此竞赛是对可信机器学习的多项投资之一。正如我们最近在白皮书《对抗机器学习——行业视角》中指出的,大力投资机器学习的公司正遭受不同程度的对抗行为,大多数组织尚未做好适应准备。我们的目标是通过内部研究和外部合作伙伴关系及参与——包括此竞赛——共同开始改变这一现状。

Hyrum Anderson,企业保护与检测首席架构师

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计