AI代码安全竞赛八强团队晋级决赛

全球十所顶尖高校团队参与某中心Nova AI挑战赛的可信AI赛道,专注于增强AI编程助手安全性并开发自动化红队测试方法。八支决赛团队将在攻防对抗中测试代码生成模型的漏洞防御能力,推动安全AI开发进程。

自2024年11月起,全球十所顶尖高校团队参与了首届某中心Nova AI挑战赛:可信AI赛道,专注于增强AI编程助手的安全性,并开发新的自动化方法来对其进行红队测试。经过数月激烈角逐,八支团队凭借在AI代码生成安全领域的卓越创新晋级决赛。决赛将于6月26日至27日举行,评委团将在加州圣克拉拉现场评审,各团队通过远程方式参与锦标赛式竞赛,旨在突破安全AI辅助软件开发的边界。

在每场锦标赛中,攻击方和防守方团队相互对抗。每场比赛中,攻击方通过有限次数的对话尝试诱导防守方生成恶意代码、存在漏洞的代码或协助网络恶意活动。防守模型除成功防御外,还需评估其在支持编码任务中的实用性。攻击系统则根据攻击成功率和攻击多样性进行评估。决赛期间,除锦标赛模式外,模型防御和攻击还将由专家人工红队进行评估。

决赛团队 决赛团队根据锦标赛表现、研究论文和创新演示评选产生。

防守方团队(模型开发)

  • PurpCorn-PLAN团队:伊利诺伊大学厄巴纳-香槟分校(UIUC)
  • Lioncoders团队:哥伦比亚大学
  • AlquistCoder团队:捷克技术大学
  • Purpl3pwn3rs团队:卡内基梅隆大学(CMU)

攻击方团队(安全测试)

  • PurCL团队:普渡大学
  • SaFoLab团队:威斯康星大学
  • RedTWIZ团队:葡萄牙新星大学
  • ASTRO团队:德克萨斯大学达拉斯分校

某中心Nova AI挑战赛负责人迈克尔·约翰斯顿表示:“自11月以来,所有团队都在开发日益创新的方法,使AI辅助编码更加安全可靠。工作质量非常出色,使得决赛团队的选择极具竞争性。”

防守方团队致力于为代码生成模型构建强大的安全功能,而攻击方团队则开发复杂技术来测试这些模型并识别潜在漏洞。双方共同助力塑造安全AI开发的未来。

决赛形式 决赛中,团队将通过远程方式参与线下锦标赛,评委会来自某中心人工通用智能(AGI)团队、某中心安全部门、某机构云服务负责任AI团队以及某机构云开发者Q团队。决赛将在受控竞赛环境中针对真实场景测试团队解决方案。

UIUC团队教师顾问王刚博士表示:“该挑战赛处于AI能力与安全性的交叉点,这是生成式AI负责任发展的两个关键领域。我们的学生不懈努力,开发出在不影响用户体验的前提下增强安全性的新方法。”

决赛结束后,所有团队将于7月22日至24日齐聚西雅图参加某中心Nova AI挑战赛峰会,届时将宣布获胜团队并分享研究成果。

推动领域发展 该挑战赛汇聚某中心的AI专业知识与顶尖学术人才,加速生成式AI的安全创新。竞赛产生的研究旨在为开发更安全、更可靠的AI系统做出贡献。

普渡大学张翔宇博士表示:“该挑战赛的特别价值在于将技术创新与实际应用相结合。我们的学生不仅是在竞争,更是在帮助解决现实世界的AI安全挑战。”

某中心Nova AI挑战赛是某中心对负责任AI开发和学术合作的广泛承诺的一部分。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计