贝叶斯激励机制:构建抗投毒联邦学习的经济防御方案

本文提出一种基于贝叶斯博弈的轻量级激励机制,通过经济手段使恶意行为变得不理性,有效防御联邦学习中的数据投毒攻击。在MNIST和FashionMNIST数据集上的实验表明,该机制在50%标签翻转攻击下仍能保持96.7%的准确率。

贝叶斯激励机制:构建抗投毒联邦学习的经济防御方案

摘要

联邦学习(FL)能够在保护数据隐私的前提下实现跨分布式客户端的协同模型训练。然而,其开放参与特性使其容易遭受数据投毒攻击,恶意参与者通过提交被污染的模型更新来破坏全局模型性能。现有防御措施多为被动式,依赖于统计聚合规则,这些规则通常计算成本高昂且假设存在诚实多数。

本文提出一种主动的经济防御机制:轻量级贝叶斯激励机制,通过经济手段使恶意行为变得不理性。每个训练轮次被建模为不完全信息的贝叶斯博弈,服务器作为委托方使用小型私有验证数据集在支付前验证更新质量。该设计满足善意客户的个体理性(IR),确保其参与有利可图,同时满足激励相容性(IC),使投毒成为经济上的劣势策略。

在MNIST和FashionMNIST的非独立同分布分区上进行的广泛实验证明了其鲁棒性:在MNIST数据集上面对50%标签翻转攻击时,该机制仍能保持96.7%的准确率,仅比30%标签翻转攻击场景低0.3个百分点。这一结果比标准FedAvg算法高出51.7个百分点,后者在相同50%攻击下完全失效。该机制计算轻量、预算有界,可轻松集成到现有FL框架中,为构建经济鲁棒且可持续的FL生态系统提供了实用途径。

主题分类

  • 机器学习(cs.LG)
  • 密码学与安全(cs.CR)
  • 计算机科学与博弈论(cs.GT)

引用信息

arXiv:2507.12439 [cs.LG]
DOI: 10.48550/arXiv.2507.12439

提交历史

2025年7月16日提交,版本v1

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计