In this work we consider stochastic gradient descent (SGD) for solving linear inverse problems in Banach spaces. SGD and its variants have been established as one of the most successful optimisation methods in machine learning, imaging and signal processing, etc. At each iteration SGD uses a single datum, or a small subset of data, resulting in highly scalable methods that are very attractive for large-scale inverse problems. Nonetheless, the theoretical analysis of SGD-based approaches for inverse problems has thus far been largely limited to Euclidean and Hilbert spaces. In this work we present a novel convergence analysis of SGD for linear inverse problems in general Banach spaces: we show the almost sure convergence of the iterates to the minimum norm solution and establish the regularising property for suitable a priori stopping criteria. Numerical results are also presented to illustrate features of the approach.


翻译:在这项工作中,我们考虑了解决Banach空间线性反问题所用的随机梯度下降(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SGD)法(SD)法(SD)法(SD)法(S(SD)法(S(SD)法(SD)法(SGD)法(SD)法(SD)法(SD)法(SD)法(SD)法(SD)法(SD)法(S(SD)法(SD)法(SD)法(SD)法(SD)法(SD)法(SD)法(SD)法(GD)法(S(S)法(SD)法(S(SD)法)法(SD)法(SD)法(S(S)法)法(SD)法(SD)法(S)法(S)法(S)法(S(S)法(S)法(S)法(S(S(SD)法)法)法)法)法(S(SD)法)法(SD)法(S(SD)法)法(SD)法(SD)法)法(SD)法(SD)法(SD)法)法(SD)法(SD)法(S(S(S(SD)法)法(SD)法(SD)法

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
54+阅读 · 2022年1月1日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关基金
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员