统一差分隐私中的重识别、属性推断与数据重建风险

本文提出了一种基于假设检验解释的统一框架,用于评估差分隐私机制中的重识别、属性推断和数据重建风险。该方法比现有方法更紧密,可将噪声需求降低20%,并在文本分类任务中提升超过15%的准确率。

统一差分隐私中的重识别、属性推断与数据重建风险

摘要

差分隐私(DP)机制难以解释和校准,因为现有方法将标准隐私参数映射到具体隐私风险(重识别、属性推断和数据重建)时既过于悲观又不一致。在本研究中,我们利用差分隐私的假设检验解释($f$-DP),确定攻击成功率的界限在重识别、属性推断和数据重建风险中可以采取统一的形式。我们的统一界限(1)在多种攻击设置中保持一致,并且(2)可调,使从业者能够针对任意(包括最坏情况)基线风险水平评估风险。实证结果表明,我们的结果比使用$\varepsilon$-DP、Rényi DP和集中DP的先前方法更紧密。因此,使用我们的界限校准噪声可以在相同风险水平下将所需噪声降低20%,例如,在文本分类任务中产生超过15个百分点的准确率提升。总体而言,这种统一视角提供了一个原则性框架,用于解释和校准差分隐私中针对特定重识别、属性推断或数据重建风险水平的保护程度。

主题

  • 机器学习 (cs.LG)
  • 人工智能 (cs.AI)
  • 密码学与安全 (cs.CR)
  • 计算机与社会 (cs.CY)
  • 机器学习 (stat.ML)

引用信息

提交历史

  • 提交日期: 2025年7月9日星期三 15:59:30 UTC
  • 提交者: Bogdan Kulynych

全文链接

  • 查看论文PDF: [链接]
  • TeX源码及其他格式: [链接]
  • 浏览许可: [链接]

相关工具与资源

本文提供了一系列辅助工具和资源链接,包括:

  • Bibliographic Explorer
  • Connected Papers
  • Litmaps
  • scite Smart Citations
  • alphaXiv
  • CatalyzeX Code Finder
  • DagsHub
  • GotitPub
  • Hugging Face
  • Papers with Code
  • ScienceCast

实验项目与社区合作

arXivLabs是一个允许合作者在我们的网站上直接开发和共享新arXiv功能的框架。与arXivLabs合作的个人和组织已接受并认同我们的开放性、社区性、卓越性和用户数据隐私价值观。arXiv致力于这些价值观,并仅与遵守这些价值观的合作伙伴合作。

其他信息

  • 作者认可状态: [链接]
  • 禁用MathJax选项: [链接]
  • 联系arXiv: [链接]
  • 订阅arXiv邮件: [链接]
  • 版权与隐私政策: [链接]
  • 网站无障碍协助: [链接]
  • arXiv运营状态通知: 通过电子邮件或Slack获取状态通知
comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计