Most of existing statistical theories on deep neural networks have sample complexities cursed by the data dimension and therefore cannot well explain the empirical success of deep learning on high-dimensional data. To bridge this gap, we propose to exploit low-dimensional geometric structures of the real world data sets. We establish theoretical guarantees of convolutional residual networks (ConvResNet) in terms of function approximation and statistical estimation for binary classification. Specifically, given the data lying on a $d$-dimensional manifold isometrically embedded in $\mathbb{R}^D$, we prove that if the network architecture is properly chosen, ConvResNets can (1) approximate Besov functions on manifolds with arbitrary accuracy, and (2) learn a classifier by minimizing the empirical logistic risk, which gives an excess risk in the order of $n^{-\frac{s}{2s+2(s\vee d)}}$, where $s$ is a smoothness parameter. This implies that the sample complexity depends on the intrinsic dimension $d$, instead of the data dimension $D$. Our results demonstrate that ConvResNets are adaptive to low-dimensional structures of data sets.


翻译:有关深神经网络的大多数现有统计理论都有数据层面所诅咒的样本复杂性,因此无法很好地解释对高维数据进行深层学习的经验成功性。 为了弥合这一差距,我们提议利用真实世界数据集的低维几何结构。 我们从功能近似和二元分类统计估计的角度,为富集残余网络(ConvResNet)建立理论保障。 具体地说,鉴于以美元维数为基础的数据嵌入于$mathbb{R ⁇ D$中,我们证明如果网络结构选择得当,ConvResNets能够(1) 任意精确地将Besov 功能与多个元相近,以及(2) 通过最大限度地减少经验性后勤风险来学习一个分类器,从而产生超大的风险,其值为 $-\\\\\\ s%2( s\vee d) $, 美元是一个光度参数。 这意味着样本的复杂性取决于内在维度$D$,而不是数据维值。 我们的结果表明,ConResNet是适应数据组的低维结构的。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
LibRec 精选:基于参数共享的CNN-RNN混合模型
LibRec智能推荐
6+阅读 · 2019年3月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
Arxiv
0+阅读 · 2021年10月28日
Arxiv
13+阅读 · 2021年5月25日
VIP会员
相关资讯
LibRec 精选:基于参数共享的CNN-RNN混合模型
LibRec智能推荐
6+阅读 · 2019年3月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
相关论文
Top
微信扫码咨询专知VIP会员