SHIELD:面向对抗攻击的鲁棒深度伪造检测安全增强集成学习方法
摘要
音频在说话人验证、语音智能设备和音频会议等应用中扮演着关键角色。然而,深度伪造等音频篡改技术通过传播错误信息带来了重大风险。我们的实证分析表明,现有的深度伪造音频检测方法通常容易受到反取证(AF)攻击的影响,特别是那些使用生成对抗网络发起的攻击。
本文提出了一种名为SHIELD的新型协作学习方法,用于防御生成式AF攻击。为了暴露AF特征,我们集成了一个称为防御(DF)生成模型的辅助生成模型,该模型通过结合输入和输出来促进协作学习。此外,我们设计了一个三重态模型,利用辅助生成模型捕获真实音频和AF攻击音频与真实生成和攻击生成音频之间的相关性。
提出的SHIELD方法加强了对生成式AF攻击的防御,并在各种生成模型上实现了鲁棒性能。对于三种不同的生成模型,提出的AF攻击将ASVspoof2019的平均检测准确率从95.49%显著降低至59.77%,将In-the-Wild从99.44%降低至38.45%,将HalfTruth从98.41%降低至51.18%。而提出的SHIELD机制对AF攻击具有鲁棒性,在ASVspoof2019、In-the-Wild和HalfTruth数据集上,匹配设置下的平均准确率分别达到98.13%、98.58%和99.57%,不匹配设置下的平均准确率分别达到98.78%、98.62%和98.85%。
主题分类
- 声音(cs.SD)
- 人工智能(cs.AI)
- 密码学与安全(cs.CR)
- 机器学习(cs.LG)
- 音频与语音处理(eess.AS)