Hugging Face与VirusTotal联手:构筑AI模型的安全信任基石

VirusTotal与Hugging Face达成合作,将安全分析结果集成至AI模型平台。文章探讨了AI供应链中的新型威胁,如模型篡改、数据投毒,并介绍了Code Insight等AI驱动分析工具,旨在提升AI领域的安全透明度与防御能力。

Hugging Face与VirusTotal:构筑AI模型信任

我们很高兴地宣布与Hugging Face展开合作。Hugging Face是一个促进AI领域协作与透明度的开放平台。此次合作旨在让社区更便捷地获取安全洞察。现在,VirusTotal的分析结果已直接集成到Hugging Face平台中,帮助用户在下载模型文件、数据集及相关构件前,了解其中潜在的风险。

在所需之处提供安全上下文

当您在Hugging Face上浏览文件时,现在可以看到来自不同扫描器的安全信息,其中包含VirusTotal的分析结果。在下面的示例中,VirusTotal将该文件检测为不安全,并直接链接至其完整的公开报告以供查阅。

应对新挑战

随着AI应用的普及,我们看到熟悉的威胁正以新的形式出现,从被篡改的模型文件和不安全的依赖项,到数据投毒和隐藏的后门程序。这些风险是更广泛的AI供应链挑战的一部分,其中被破坏的模型、脚本或数据集可能会悄无声息地影响下游应用程序。

在VirusTotal,我们也在不断发展以适应这个新环境带来的挑战。我们正在开发AI驱动的分析工具,例如利用大语言模型来理解和解释代码行为的“Code Insight”。同时,我们正在增加对专门工具的支持,用于分析模型/序列化格式,包括 picklescan、safepickle 和 ModelScan,以帮助发现风险模式和不安全的反序列化流程。

我们与Hugging Face的合作加强了这一努力。通过将VirusTotal的分析与Hugging Face的AI Hub连接起来,我们可以扩大对针对AI模型威胁的研究,并将这种可见性分享给整个行业,帮助每个人构建更好的防御措施、工具和方法,从而提升全球安全水平。

携手更强大

此次合作是我们持续使命的一部分,即让安全情报变得更简单、更易获取。它紧随我们近期为社区简化VirusTotal访问和API使用的努力,并将同样的精神延伸至AI领域。

我们相信,开放性、协作和知识共享是对抗不断演变的威胁的最佳防御手段。Hugging Face和VirusTotal共享这一愿景:赋能全球的研究人员、开发者和防御者,让他们能够安全、开放地进行构建。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计