机器学习模型容易受到成员推断攻击,目的是推断目标样本是否属于目标模型的训练数据集。由于成员推理而引起的严重的隐私问题引发了对成员推理攻击的多种防御,例如差分隐私和对抗性正则化。不幸的是,这些防御方法产生的机器学习模型的实用性低得令人无法接受,例如,分类准确性。我们提出了一种新的基于知识蒸馏的防御,称为成员隐私蒸馏(DMP),以对抗成员推理攻击,这种攻击比先前的防御更有效地保留了生成模型的效用。我们提供了一个新的准则来调整DMP中用于知识迁移的数据,以调整所得模型的效用和隐私之间的权衡。我们的评估清楚地展示了最先进的会员隐私-效用折衷。

https://people.cs.umass.edu/~vshejwalkar/dmp_aaai_slides.pdf

成为VIP会员查看完整内容
28

相关内容

专知会员服务
45+阅读 · 2020年12月26日
专知会员服务
41+阅读 · 2020年12月1日
专知会员服务
127+阅读 · 2020年8月7日
少标签数据学习,54页ppt
专知会员服务
205+阅读 · 2020年5月22日
隐私保护相关汇总
计算机与网络安全
5+阅读 · 2019年5月16日
差分隐私保护:从入门到脱坑
FreeBuf
17+阅读 · 2018年9月10日
Arxiv
0+阅读 · 2021年4月2日
Federated Learning: A Signal Processing Perspective
Arxiv
2+阅读 · 2021年3月31日
Arxiv
18+阅读 · 2019年1月16日
VIP会员
相关VIP内容
专知会员服务
45+阅读 · 2020年12月26日
专知会员服务
41+阅读 · 2020年12月1日
专知会员服务
127+阅读 · 2020年8月7日
少标签数据学习,54页ppt
专知会员服务
205+阅读 · 2020年5月22日
相关资讯
微信扫码咨询专知VIP会员