Deep Neural Networks (DNNs) have obtained impressive performance across tasks, however they still remain as black boxes, e.g., hard to theoretically analyze. At the same time, Polynomial Networks (PNs) have emerged as an alternative method with a promising performance and improved interpretability but have yet to reach the performance of the powerful DNN baselines. In this work, we aim to close this performance gap. We introduce a class of PNs, which are able to reach the performance of ResNet across a range of six benchmarks. We demonstrate that strong regularization is critical and conduct an extensive study of the exact regularization schemes required to match performance. To further motivate the regularization schemes, we introduce D-PolyNets that achieve a higher-degree of expansion than previously proposed polynomial networks. D-PolyNets are more parameter-efficient while achieving a similar performance as other polynomial networks. We expect that our new models can lead to an understanding of the role of elementwise activation functions (which are no longer required for training PNs). The source code is available at https://github.com/grigorisg9gr/regularized_polynomials.


翻译:深度神经网络(DNN)在各种任务中取得了卓越的性能,但它们仍然是黑箱,即难以理论分析。同时,多项式网络(PN)已经成为一种具有较好性能和更好可解释性的替代方法,但仍未达到强大的DNN基线的表现。在本文中,我们旨在缩小这一性能差距。我们引入了一类PN,能够在六个基准测试中达到与ResNet相同的性能。我们展示了强大的正则化是至关重要的,并对需要达到匹配性能的确切正则化方案进行了广泛的研究。为了进一步推动正则化方案,我们引入了D-PolyNet,它们实现了比以前建议的多项式网络更高次的扩展。D-PolyNet更具参数效率,同时实现了与其他多项式网络类似的性能。我们希望我们的新模型能够引导理解元素级激活函数的作用(对于PN的训练不再需要)。源代码可在https://github.com/grigorisg9gr/regularized_polynomials上获得。

0
下载
关闭预览

相关内容

在数学,统计学和计算机科学中,尤其是在机器学习和逆问题中,正则化是添加信息以解决不适定问题或防止过度拟合的过程。 正则化适用于不适定的优化问题中的目标函数。
【干货书】深度学习数学:理解神经网络,347页pdf
专知会员服务
267+阅读 · 2022年7月3日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
Top
微信扫码咨询专知VIP会员