统一差分隐私中的重识别、属性推断与数据重建风险
摘要
差分隐私(DP)机制难以解释和校准,因为现有方法将标准隐私参数映射到具体隐私风险(重识别、属性推断和数据重建)时既过于悲观又不一致。在本研究中,我们利用差分隐私的假设检验解释($f$-DP),确定攻击成功率的界限在重识别、属性推断和数据重建风险中可以采取统一的形式。我们的统一界限(1)在多种攻击设置中保持一致,并且(2)可调,使从业者能够针对任意(包括最坏情况)基线风险水平评估风险。实证结果表明,我们的结果比使用$\varepsilon$-DP、Rényi DP和集中DP的先前方法更紧密。因此,使用我们的界限校准噪声可以在相同风险水平下将所需噪声降低20%,例如,在文本分类任务中产生超过15个百分点的准确率提升。总体而言,这种统一视角提供了一个原则性框架,用于解释和校准差分隐私中针对特定重识别、属性推断或数据重建风险水平的保护程度。
主题
- 机器学习 (cs.LG)
- 人工智能 (cs.AI)
- 密码学与安全 (cs.CR)
- 计算机与社会 (cs.CY)
- 机器学习 (stat.ML)
引用信息
- arXiv:2507.06969 [cs.LG]
- 版本: arXiv:2507.06969v1 [cs.LG]
- DOI: https://doi.org/10.48550/arXiv.2507.06969
提交历史
- 提交日期: 2025年7月9日星期三 15:59:30 UTC
- 提交者: Bogdan Kulynych
全文链接
- 查看论文PDF: [链接]
- TeX源码及其他格式: [链接]
- 浏览许可: [链接]
相关工具与资源
本文提供了一系列辅助工具和资源链接,包括:
- Bibliographic Explorer
- Connected Papers
- Litmaps
- scite Smart Citations
- alphaXiv
- CatalyzeX Code Finder
- DagsHub
- GotitPub
- Hugging Face
- Papers with Code
- ScienceCast
实验项目与社区合作
arXivLabs是一个允许合作者在我们的网站上直接开发和共享新arXiv功能的框架。与arXivLabs合作的个人和组织已接受并认同我们的开放性、社区性、卓越性和用户数据隐私价值观。arXiv致力于这些价值观,并仅与遵守这些价值观的合作伙伴合作。
其他信息
- 作者认可状态: [链接]
- 禁用MathJax选项: [链接]
- 联系arXiv: [链接]
- 订阅arXiv邮件: [链接]
- 版权与隐私政策: [链接]
- 网站无障碍协助: [链接]
- arXiv运营状态通知: 通过电子邮件或Slack获取状态通知