基于扩散时间步集成的可解释合成图像检测技术

本文提出一种新型合成图像检测方法,通过分析DDIM反演中不同时间步的噪声特征差异(如傅里叶频谱高频差异和像素间方差分布),利用多时间步集成训练直接提取中间噪声图像特征,并引入基于度量的可解释模块揭示AI生成图像的缺陷。

摘要

扩散模型的快速发展使得合成图像逼真度显著提升,同时也带来安全风险。研究发现,DDIM反演过程中不同时间步会揭示合成与真实图像的细微差异(如高频频谱差异和像素方差分布)。基于此,提出一种绕过传统重建策略的检测方法:通过训练多噪声时间步集成模型直接利用中间噪声图像特征。此外,设计可解释生成与优化模块,通过量化指标定位并解释AI生成图像的缺陷。构建了高难度检测样本集GenHard和高质量解释基准GenExplain。实验表明,该方法在常规和挑战性样本上分别达到98.91%和95.89%的检测准确率,并展现优秀的泛化性与鲁棒性。

关键技术

  1. 时间步特征分析
    • 实证发现不同DDIM反演时间步能捕捉合成图像的独特痕迹(如高频域异常)。
  2. 多时间步集成模型
    • 直接对中间噪声图像特征进行集成训练,避免传统方法依赖完整图像重建的局限。
  3. 可解释性模块
    • 通过度量驱动的解释生成与优化,自动定位合成图像的物理不合理区域(如纹理矛盾)。
  4. 基准数据集
    • 发布GenHard(高难度对抗样本)和GenExplain(带人工标注解释)两大基准。

实验结果

  • 在ProGAN、StyleGAN等生成图像上的检测准确率超越现有方法6.2%。
  • 对对抗攻击(如添加噪声、模糊)保持90%以上的鲁棒性。
  • 可解释模块生成的缺陷定位与人工标注重合度达82.3%。
comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计