Robust machine learning formulations have emerged to address the prevalent vulnerability of deep neural networks to adversarial examples. Our work draws the connection between optimal robust learning and the privacy-utility tradeoff problem, which is a generalization of the rate-distortion problem. The saddle point of the game between a robust classifier and an adversarial perturbation can be found via the solution of a maximum conditional entropy problem. This information-theoretic perspective sheds light on the fundamental tradeoff between robustness and clean data performance, which ultimately arises from the geometric structure of the underlying data distribution and perturbation constraints.


翻译:为解决深神经网络普遍易受对抗性实例影响的问题,出现了强有力的机器学习配方,以解决深神经网络普遍易受对抗性实例影响的问题。我们的工作将最佳稳健学习与隐私-利用权权衡问题(即对率扭曲问题的概括化)联系起来。强大的分类器和对抗性扰动之间的游戏搭载点可以通过解决最大有条件的最小诱变问题找到。这种信息理论视角揭示了稳健性和清洁数据性能之间的根本权衡,最终产生于基本数据分布的几何结构以及扰动限制。

0
下载
关闭预览

相关内容

专知会员服务
45+阅读 · 2020年10月31日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
11+阅读 · 2021年2月17日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
VIP会员
相关VIP内容
专知会员服务
45+阅读 · 2020年10月31日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员