平移的不变性为卷积神经网络注入了强大的泛化特性。然而,我们通常无法预先知道数据中存在哪些不变性,或者模型在多大程度上应该对给定的对称组保持不变。我们展示了如何通过参数化增强分布和同时优化网络参数和增强参数的训练损失来学习不变性和等方差。通过这个简单的过程,我们可以在一个很大的扩充空间中,仅在训练数据上,恢复图像分类、回归、分割和分子性质预测上的正确不变量集和范围。

https://arxiv.org/pdf/2010.11882.pdf

成为VIP会员查看完整内容
29

相关内容

【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
85+阅读 · 2020年11月19日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
24+阅读 · 2020年11月5日
专知会员服务
46+阅读 · 2020年10月22日
专知会员服务
18+阅读 · 2020年10月18日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
41+阅读 · 2020年3月9日
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
入门 | 一文了解神经网络中的梯度爆炸
机器之心
8+阅读 · 2017年12月22日
Arxiv
0+阅读 · 2020年11月29日
Arxiv
4+阅读 · 2017年11月13日
VIP会员
相关VIP内容
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
85+阅读 · 2020年11月19日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
24+阅读 · 2020年11月5日
专知会员服务
46+阅读 · 2020年10月22日
专知会员服务
18+阅读 · 2020年10月18日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
41+阅读 · 2020年3月9日
相关资讯
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
入门 | 一文了解神经网络中的梯度爆炸
机器之心
8+阅读 · 2017年12月22日
微信扫码咨询专知VIP会员