级联与代理成员推理攻击:提升机器学习隐私风险评估的新方法

本文提出两种新型成员推理攻击方法:CMIA利用实例间成员依赖关系通过条件影子训练提升推理性能;PMIA在非自适应设置下通过代理样本选择策略进行成员后验概率测试。理论分析与实验表明,这两种方法在低误报率场景下显著优于现有攻击技术。

级联与代理成员推理攻击

摘要

成员推理攻击(MIA)通过判断特定查询实例是否包含在训练数据集中,评估训练后的机器学习模型对其训练数据的泄露程度。我们将现有MIA分为自适应和非自适应两类,区别在于攻击者是否被允许在成员查询上训练影子模型。

在自适应设置中,攻击者可以在访问查询实例后训练影子模型。我们强调了利用实例间成员依赖关系的重要性,并提出了一种攻击无关的框架——级联成员推理攻击(CMIA)。该框架通过条件影子训练整合成员依赖关系,从而提升成员推理性能。

在非自适应设置中,攻击者仅限于在获取成员查询之前训练影子模型。我们引入了代理成员推理攻击(PMIA)。PMIA采用代理选择策略,识别与查询实例行为相似的样本,并利用它们在影子模型中的行为进行成员后验概率测试,以实现成员推理。

我们为两种攻击提供了理论分析,大量实验结果表明,CMIA和PMIA在两种设置下均显著优于现有MIA方法,尤其是在低误报率场景下,这对评估隐私风险至关重要。

代码可用性

我们的代码可在以下链接获取:https://github.com/example/code

学科分类

  • 密码学与安全(cs.CR)
  • 机器学习(cs.LG)

引用信息

arXiv: 2507.21412 [cs.CR]
DOI: https://doi.org/10.48550/arXiv.2507.21412

提交历史

  • 提交日期: 2025年7月29日
  • 版本: v1
  • 作者: Yuntao Du 等8位作者

全文链接

相关工具与资源

  • Bibliographic Explorer: 探索相关文献
  • Connected Papers: 查找关联论文
  • Litmaps: 文献图谱可视化
  • scite.ai: 智能引文分析

代码、数据与媒体

  • alphaXiv: 获取附加资源
  • CatalyzeX: 代码查找工具
  • DagsHub: 数据与代码托管
  • Hugging Face: 模型与数据集
  • Papers with Code: 论文与代码关联

演示与实验

  • Replicate: 复现实验
  • Hugging Face Spaces: 在线演示
  • TXYZ.AI: 交互式分析

致谢

本研究感谢Simons基金会、成员机构及所有贡献者的支持。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计