Federated learning (FL) offers privacy preserving, distributed machine learning, allowing clients to contribute to a global model without revealing their local data. As models increasingly serve as monetizable digital assets, the ability to prove participation in their training becomes essential for establishing ownership. In this paper, we address this emerging need by introducing FedPoP, a novel FL framework that allows nonlinkable proof of participation while preserving client anonymity and privacy without requiring either extensive computations or a public ledger. FedPoP is designed to seamlessly integrate with existing secure aggregation protocols to ensure compatibility with real-world FL deployments. We provide a proof of concept implementation and an empirical evaluation under realistic client dropouts. In our prototype, FedPoP introduces 0.97 seconds of per-round overhead atop securely aggregated FL and enables a client to prove its participation/contribution to a model held by a third party in 0.0612 seconds. These results indicate FedPoP is practical for real-world deployments that require auditable participation without sacrificing privacy.


翻译:联邦学习(FL)提供了一种隐私保护的分布式机器学习方法,允许客户端在不暴露本地数据的情况下共同训练全局模型。随着模型日益成为可货币化的数字资产,证明其参与训练过程的能力对于确立所有权至关重要。本文针对这一新兴需求,提出了FedPoP——一种新颖的联邦学习框架,能够在无需大量计算或公共账本的前提下,实现不可关联的参与证明,同时保护客户端的匿名性和隐私。FedPoP设计为可与现有安全聚合协议无缝集成,确保与实际联邦学习部署的兼容性。我们提供了概念验证实现,并在真实场景下的客户端掉线情况下进行了实证评估。在原型系统中,FedPoP在安全聚合的联邦学习基础上每轮仅引入0.97秒的开销,并使客户端能在0.0612秒内向第三方证明其对特定模型的参与/贡献。这些结果表明,FedPoP适用于实际部署场景,能够在无需牺牲隐私的前提下实现可审计的参与验证。

0
下载
关闭预览

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员