SelectiveShield:轻量级混合防御框架对抗联邦学习中的梯度泄露
作者:Borui Li, Li Yan, Jianmin Liu
提交日期:2025年8月6日
摘要
联邦学习(FL)支持在分散数据上进行协作模型训练,但仍容易受到梯度泄露攻击,这些攻击可能重建敏感用户信息。现有的防御机制,如差分隐私(DP)和同态加密(HE),通常在隐私、模型效用和系统开销之间引入权衡,这一挑战在具有非独立同分布(non-IID)数据和不同客户端能力的异构环境中更加严重。
为了解决这些限制,我们提出了SelectiveShield,一个轻量级混合防御框架,自适应地整合选择性同态加密和差分隐私。SelectiveShield利用Fisher信息来量化参数敏感性,允许客户端在本地识别关键参数。通过协作协商协议,客户端就一组最敏感的参数达成一致,并通过同态加密进行保护。对个别客户端独特重要的参数在本地保留,促进个性化,而非关键参数则通过自适应差分隐私噪声进行保护。广泛的实验表明,SelectiveShield在显著减轻梯度泄露风险的同时保持了强大的模型效用,为现实世界的联邦学习部署提供了一个实用且可扩展的防御机制。
评论
19页,7张图
主题
分布式、并行和集群计算(cs.DC);人工智能(cs.AI);密码学与安全(cs.CR)
引用
arXiv:2508.04265 [cs.DC]
(或此版本的 arXiv:2508.04265v1 [cs.DC])
DOI: https://doi.org/10.48550/arXiv.2508.04265
提交历史
来自:Borui Li [查看电子邮件] [v1]
2025年8月6日星期三 09:50:39 UTC (2,258 KB)
全文链接
- 查看PDF:查看题为《SelectiveShield: Lightweight Hybrid Defense Against Gradient Leakage in Federated Learning》的论文PDF,作者为Borui Li及其他两位作者
- HTML(实验性)
- TeX源代码
- 其他格式
- 查看许可证
当前浏览上下文
cs.DC
相关工具
- Bibliographic Explorer
- Connected Papers
- Litmaps
- scite.ai Smart Citations
代码、数据和媒体
- alphaXiv
- CatalyzeX Code Finder for Papers
- DagsHub
- GotitPub
- Hugging Face
- Papers with Code
- ScienceCast
演示
- Replicate
- Hugging Face Spaces
- TXYZ.AI
相关论文
- Influence Flower
- CORE Recommender
关于arXivLabs
arXivLabs是一个允许合作者直接在网站上开发和共享新arXiv功能的实验项目框架。与arXivLabs合作的个人和组织都接受并支持我们的开放、社区、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并只与遵守这些价值观的合作伙伴合作。
哪些作者是本文的认可者? | 禁用MathJax(什么是MathJax?)
关于和帮助
- 联系arXiv
- 订阅arXiv邮件
- 版权
- 隐私政策
- 网站无障碍协助
- arXiv运营状态:通过电子邮件或Slack获取状态通知