Mean estimation under differential privacy is a fundamental problem, but worst-case optimal mechanisms do not offer meaningful utility guarantees in practice when the global sensitivity is very large. Instead, various heuristics have been proposed to reduce the error on real-world data that do not resemble the worst-case instance. This paper takes a principled approach, yielding a mechanism that is instance-optimal in a strong sense. In addition to its theoretical optimality, the mechanism is also simple and practical, and adapts to a variety of data characteristics without the need of parameter tuning. It easily extends to the local and shuffle model as well.


翻译:不同隐私下的平均估计是一个根本问题,但当全球敏感度非常大时,最坏情况的最佳机制在实践中并不能提供有意义的实用保障,相反,提出了各种方法,以减少与最坏情况不同的真实世界数据错误。本文采取原则性办法,产生一个在强烈意义上最优化实例的机制。除了其理论上的最佳性外,这一机制还简单而实用,并适应各种数据特点,而不需要参数调整。它很容易扩展到本地和洗涤模型。

0
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2021年5月21日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
专知会员服务
63+阅读 · 2020年3月4日
已删除
将门创投
5+阅读 · 2019年3月29日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年7月21日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
5+阅读 · 2019年3月29日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员