AI安全开发与治理:从代码生成到漏洞检测的技术实践

本文探讨AI系统开发中的技术挑战与解决方案,包括大语言模型在代码生成中的局限性、基于图的漏洞扫描技术优势、AI在网络安全中的互补作用,以及针对AI驱动攻击的防御对策,为负责任AI发展提供技术框架。

Trail of Bits对OSTP国家人工智能优先事项信息请求的回应

Heidy Khlaaf, Michael Brown
2023年7月18日
机器学习, 政策

科技政策办公室(OSTP)就如何制定最佳政策发布信息请求(RFI),以支持负责任的人工智能发展,同时最小化对权利、安全和国家安全的风险。在我们的回应中,我们强调了以下要点:

为确保人工智能以保护人民权利和安全的方式发展,必须构建可验证的主张并要求开发人员对其负责。这些主张必须限定在监管、安全、伦理或技术应用范围内,并且必须足够精确以可证伪。随后,独立监管机构可以使用安全案例(即记录在案的证据体系)来评估人工智能系统是否符合这些主张,正如FDA在制造业等行业所要求的那样。

大语言模型(LLM)不能安全地用于直接生成代码,但它们适用于某些增强可读性或促进开发人员理解代码的子任务。这些子任务包括建议对现有代码的更改、用自然语言总结代码以及提供代码补全建议。然而,使用LLM完成这些子任务需要一定程度的专业知识,因为不能保证其输出的正确性或完整性。

此外,最近的非LLM人工智能方法在提高软件安全性方面显示出潜力。例如,使用基于图的模型的基于AI的漏洞扫描器在检测某些类型的漏洞方面优于传统漏洞扫描器。

不能完全依赖基于AI的系统来识别网络漏洞,但它们可以用于补充传统工具和人工努力。特别是,基于AI的系统可以减少发现和修复某些漏洞所需的时间和精力。然而,需要更好的数据集训练来减少误报,并且开发人员为项目选择正确的AI模型至关重要。像ChatGPT这样的生成式AI模型不适合检测新颖或非公开可用的漏洞,因为它们是为自然(非计算机)语言量身定制的,并且是在列出源代码漏洞的文章上训练的。

AI系统显著降低了进行攻击所需的技术专业知识和时间,这对国家安全构成了明确风险。攻击者可以使用先进或专业的AI快速开发或定制针对已知漏洞的漏洞利用程序,并在补丁发布前部署它们,这可能会严重影响国家基础设施。此外,LLM擅长制作难以检测的网络钓鱼攻击,而用于音频/视觉媒体的生成式AI系统可用于进行社会工程和虚假信息活动。

必须制定针对这些威胁的对策。例如,DARPA的MediFor和SemaFor在对抗深度伪造技术方面取得了成功。为了帮助AI系统变得更有效,我们提出了一个框架,以可衡量和系统的方式评估和促进这些技术的增强。

我们的完整回复为选定的问题提供了更多细节。我们赞扬OSTP就制定国家AI战略促进开放讨论。

如果您喜欢这篇文章,请分享: Twitter LinkedIn GitHub Mastodon Hacker News

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计