成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
ReLU
关注
0
综合
百科
VIP
热门
动态
论文
精华
Hysteresis Activation Function for Efficient Inference
Arxiv
0+阅读 · 10月30日
The Cost of Robustness: Tighter Bounds on Parameter Complexity for Robust Memorization in ReLU Nets
Arxiv
0+阅读 · 10月28日
Non-Singularity of the Gradient Descent map for Neural Networks with Piecewise Analytic Activations
Arxiv
0+阅读 · 10月28日
SPEAR++: Scaling Gradient Inversion via Sparsely-Used Dictionary Learning
Arxiv
0+阅读 · 10月28日
Global Minimizers of $\ell^p$-Regularized Objectives Yield the Sparsest ReLU Neural Networks
Arxiv
0+阅读 · 10月23日
The Computational Complexity of Counting Linear Regions in ReLU Neural Networks
Arxiv
0+阅读 · 10月24日
Depth-Bounds for Neural Networks via the Braid Arrangement
Arxiv
0+阅读 · 10月23日
Stable Minima of ReLU Neural Networks Suffer from the Curse of Dimensionality: The Neural Shattering Phenomenon
Arxiv
0+阅读 · 10月22日
Generalization Below the Edge of Stability: The Role of Data Geometry
Arxiv
0+阅读 · 10月20日
Approximation Rates for Shallow ReLU$^k$ Neural Networks on Sobolev Spaces via the Radon Transform
Arxiv
0+阅读 · 10月16日
Provable Unlearning with Gradient Ascent on Two-Layer ReLU Neural Networks
Arxiv
0+阅读 · 10月16日
Stable Minima of ReLU Neural Networks Suffer from the Curse of Dimensionality: The Neural Shattering Phenomenon
Arxiv
0+阅读 · 10月14日
Topological Signatures of ReLU Neural Network Activation Patterns
Arxiv
0+阅读 · 10月14日
Designing ReLU Generative Networks to Enumerate Trees with a Given Tree Edit Distance
Arxiv
0+阅读 · 10月12日
Wide Neural Networks as a Baseline for the Computational No-Coincidence Conjecture
Arxiv
0+阅读 · 10月8日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top