机器学习模型包含训练数据的相关信息。这些信息要么通过模型本身泄露,要么通过模型做出的预测泄露。因此,当训练数据包含敏感属性时,评估信息泄漏量是至关重要的。我们提出了一种利用模型中关于数据的Fisher信息来量化这种泄漏的方法。在最坏情况下,基于先验的差别隐私保证,Fisher信息损失测量关于数据集中的特定实例、属性或子群的泄漏。我们通过Cramér-Rao约束激励Fisher信息损失,并描述隐含威胁模型。给出了输出摄动广义线性模型Fisher信息损失的有效计算方法。最后,实证验证了Fisher信息损失是一种有效的信息泄漏度量方法。

成为VIP会员查看完整内容
17

相关内容

专知会员服务
19+阅读 · 2021年9月19日
【ICML2021-Tutorial】机器学习隐私,90页ppt
专知会员服务
38+阅读 · 2021年7月27日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
通过机器学习让医疗数据更好用
谷歌开发者
3+阅读 · 2018年7月10日
结合弱监督信息的凸聚类
计算机研究与发展
6+阅读 · 2017年8月30日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
VIP会员
相关VIP内容
相关资讯
微信扫码咨询专知VIP会员