Hugging Face与VirusTotal携手共建AI模型安全信任体系

VirusTotal与Hugging Face达成合作,将安全检测结果直接集成至AI模型平台,帮助用户在下载前识别模型文件和数据集的潜在风险,共同应对AI供应链安全挑战。

Hugging Face与VirusTotal:共建AI模型信任体系

2025年10月23日

我们很高兴宣布与Hugging Face达成合作——这是一个促进AI领域协作与透明度的开放平台。通过此次合作,我们将使安全洞察更便捷地服务于社区。VirusTotal的分析结果现已直接集成到Hugging Face平台,帮助用户在下载模型文件、数据集及相关构件前了解潜在风险。

在需要的地方提供安全上下文

当您在Hugging Face上浏览文件时,现在可以看到来自不同扫描器的安全信息,包括VirusTotal的检测结果。在以下示例中,VirusTotal将文件检测为不安全,并直接链接至其完整报告的公开页面。

应对新挑战

随着AI应用的普及,我们目睹了熟悉威胁以新形式出现:从被篡改的模型文件和不安全的依赖项,到数据投毒和隐藏后门。这些风险属于更广泛的AI供应链挑战范畴,受损的模型、脚本或数据集可能悄无声息地影响下游应用。

在VirusTotal,我们也在不断演进以应对这一新形势的挑战。我们正在开发AI驱动的分析工具,例如利用大语言模型理解和解释代码行为的“Code Insight”,同时我们增加了对专业工具的支持,包括picklescan、safepickle和ModelScan等模型/序列化格式分析工具,以帮助发现风险模式和不安全的反序列化流程。

我们与Hugging Face的合作强化了这方面的努力。通过将VirusTotal的分析与Hugging Face的AI中心相连接,我们能够扩展针对AI模型威胁的研究,并将这种可见性分享给整个行业,帮助大家构建更好的防御措施、工具和方法,以提升全球安全水平。

携手共进,更加强大

此次合作是我们持续使命的一部分:让安全情报更简单、更易获取。这延续了我们最近为社区简化VirusTotal访问和API使用的努力,并将同样的精神延伸至AI领域。

我们相信,开放、协作和知识共享是对抗不断演变威胁的最佳防御方式。Hugging Face和VirusTotal共享这一愿景:赋能全球的研究人员、开发者和防御者,安全而开放地进行构建。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计