FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

联邦学习(Federated Learning)旨在通过让客户端在不分享其私人数据,保护数据隐私的前提下协作建立机器学习模型。最近的一些研究证明了在联邦学习过程中交换的信息会受到基于梯度的隐私攻击,因此,各种隐私保

联邦学习(Federated Learning)旨在通过让客户端在不分享其私人数据,保护数据隐私的前提下协作建立机器学习模型。最近的一些研究证明了在联邦学习过程中交换的信息会受到基于梯度的隐私攻击,因此,各种隐私保护方法已被采用来阻止此类攻击,保护数据隐私。然而,这些防御性方法要么引入数级更多的计算和通信开销(例如,同态加密),要么在预测准确性方面导致模型性能大幅下降(例如,使用差分隐私)。微众银行AI团队和中山大学合作发表的论文《FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能》提出了”FedCG”,将条件生成对抗网络与分割学习相结合,实现对数据的有效隐私保护,同时保持有竞争力的模型性能。该论文已被国际人工智能顶级学术会议IJCAI 2022主会收录。

论文信息

作者:Yuezhou Wu,Yan Kang,Jiahuan Luo, Yuanqin He,Lixin Fan, Rong Pan, Qiang Yang

标题:FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining Competitive Performance in Federated Learning

论文全文链接:https://www.ijcai.org/proceedings/2022/324

FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

FedCG将每个客户端的本地网络分解为私有特征提取器(extractor)和公共分类器(classifier),并将特征提取器保留在本地以保护隐私。每个客户端用一个生成器(generator)来拟合特征提取器的输出表征。FedCG的创新之处在于它与服务器共享客户端的生成器而不是提取器,以聚合客户端的共享知识,提高模型性能 (如图1)。

FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

图1:FedCG 架构概览

这种策略有两个直接的优势:首先,与服务器可以得到完整的客户端模型的联邦学习方法(例如,FedAvg 和 FedProx)相比,FedCG没有暴露直接与原始数据接触的模型 (也即,extractor),因此客户端数据泄露的可能性显著降低。其次,服务器可以使用知识蒸馏(Hinton, Vinyals, and Dean 2015)聚合客户端的生成器和分类器,而无需访问任何公共数据。

一、FedCG训练步骤

FedCG的训练步骤分为两阶段客户端更新(如图2)和服务器端聚合(如图3)。在两阶段客户端更新中,首先利用从服务器下发的全局生成器来优化分类网络(包括特征提取器和分类器),然后再训练一个本地生成器来拟合特征提取器的输出表征G(z,y)≈F(x|y),用这个本地生成器来代替特征提取器, 在服务器端聚合所有客户端的知识同时保护数据隐私。

FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

图2:FedCG 客户端训练示意图

在服务器端聚合中,通过知识蒸馏的方式聚合一个公共分类器Cg和一个公共生成器 Gg。然后,服务器下发公共分类器和公共生成器给每个客户端。

FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

图3:FedCG服务器端训练示意图

二、FedCG实验结果

如表1所示,总体来说,FedCG 在4个数据集 (共6个数据集) 上取得最高准确率. 在IID 场景 : 在 FMNIST 上达到最高准确率。在Non-IID 场景: 在 3 个数据集上都达到最优,特别是在 Office 数据集上,FedCG比第二高准确率的 FedProx 高出 4.35% 。

FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

表1:FedCG与基线在Top-1精度上的比较

注:粗体字表示最好的性能。*表示没有测量结果。括号内的数字表示客户端数量。

IID 场景: 所有的FL方法在所有的客户端上都以较大的优势超过了本地模型。在FMNIST数据集上,FedCG在所有客户端的表现都是最好的(见图4(a))。FedCG的表现与那些共享所有本地模型的FL方法相差不大(见图4(b))。Non-IID 场景: 在所有3个Non-IID数据集中,没有一种FL方法能在每个客户上都击败本地模型(见图4(c),图4(d)和图4(e))。 FedCG在最多的客户端上取得了最好的效果。同时也是击败local最多的算法。

FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

图4:不同数据集实验结果对比

注:在5个数据集上的实验中,在每个客户端上FEDAVG、FEDPROX、FEDDF、FEDSPLIT和FEDCG(红色)与LOCAL相比,都取得了精度提高。纵轴是准确性方面的性能差异(%)。正的(负的)收益意味着FL方法比LOCAL方法取得了比LOCAL模型更好(更差)。

如表2所示,隐私分析的实验结果表明,使用FedAvg,随着 DP 噪声添加得越多,能更好的保护隐私,但会导致较大的准确率损失;使用FedSplit,能保护隐私, 但有较大的准确率损失;使用FedCG,能在保护隐私的条件下,取得一个较高的准确率。

FedCG:利用条件生成对抗网络在联邦学习中保护隐私并保持模型性能

表2: FedAVG,FedSPLIT和FedCG的模型性能与隐私保护效果对比

三、总结

FedCG的目的是保护数据隐私,同时保持有竞争力的模型性能。FedCG将每个客户的本地网络分解为一个私有特征提取器和一个公共分类器,并将特征提取器保持在本地以保护隐私。它与服务器共享客户端的生成器,以聚合共享知识,从而提高客户端本地分类网络的性能。实验表明 FedCG具有高水平的隐私保护能力,并且可以实现有竞争力的模型性能。

(本内容属于网络转载,文中涉及图片等内容如有侵权,请联系编辑删除。市场有风险,选择需谨慎!此文仅供参考,不作买卖及投资依据。)

原创文章,作者:陈晨,如若转载,请注明出处:https://www.kejixun.com/article/561062.html

(0)
陈晨陈晨管理团队

相关推荐