差分隐私(DP)是保护隐私的敏感数据,同时保持其实用性的一个最成功的提议。在这次演讲中,我们将简要介绍DP框架,然后提出一个新的机制来实现分布式DP。也就是说,在一个数据收集分布在不同组织中的场景中,这些组织不希望公开原始数据,而只希望公开它们经过脱敏的版本,并且仍然可以从合并来自不同来源的信息的优点中获益。我们提出的机制特别适合于统计期望最大化方法的一种变体的应用,由于这种方法,原始数据的效用可以被检索到一个近似的检索度,而不影响原始数据所有者的隐私。

https://sites.google.com/view/federatedlearning-workshop/schedule

成为VIP会员查看完整内容
41

相关内容

专知会员服务
45+阅读 · 2020年12月26日
最新《自监督表示学习》报告,70页ppt
专知会员服务
86+阅读 · 2020年12月22日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
26+阅读 · 2020年10月13日
知识图谱融合方法,140页ppt,南京大学胡伟老师
专知会员服务
145+阅读 · 2020年2月19日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
差分隐私保护:从入门到脱坑
FreeBuf
17+阅读 · 2018年9月10日
Arxiv
0+阅读 · 2021年1月14日
VIP会员
相关主题
相关VIP内容
专知会员服务
45+阅读 · 2020年12月26日
最新《自监督表示学习》报告,70页ppt
专知会员服务
86+阅读 · 2020年12月22日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
26+阅读 · 2020年10月13日
知识图谱融合方法,140页ppt,南京大学胡伟老师
专知会员服务
145+阅读 · 2020年2月19日
微信扫码咨询专知VIP会员