We study the problem of black-box optimization of a Lipschitz function $f$ defined on a compact subset $\mathcal{X}$ of $\mathbb{R}^d$, both via algorithms that certify the accuracy of their recommendations and those that do not.We investigate their sample complexities, i.e., the number of samples needed to either reach or certify a given accuracy $\epsilon$.We start by proving a tighter bound for the well-known DOO algorithm [Perevozchikov, 1990, Munos, 2011] that matches the best existing upper bounds for (more computationally challenging) non-certified algorithms.We then introduce and analyze a new certified version of DOO and prove a matching $f$-dependent lower bound (up to logarithmic terms).Afterwards, we show that this optimal quantity is proportional to $\int_{\mathcal{X}} \mathrm{d}\boldsymbol{x}/( f(\boldsymbol{x}^\star) - f(\boldsymbol{x}) + \epsilon )^d$, solving as a corollary a three-decade-old conjecture by Hansen et al. [1991].Finally, we show how to control the sample complexity of state-of-the-art non-certified algorithms with an integral reminiscent of the Dudley-entropy integral.


翻译:我们研究一个Lipschitz 函数的黑盒优化问题。 美元定义在一个缩略语子集$\mathcal{X}$\mathbb{R ⁇ d$上方美元上方美元上下方美元上下方美元上下方美元上下方美元上下方美元上下方美元上下方美元上下方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上下方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元下方美元上方美元上方美元上方美元上方美元上方美元上方美元下方美元上方美元下方美元下方美元下方美元上方美元上方美元上方美元下方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方美元上方(fxxxxxxxxxxxxxxxxxxxxxxxxxxxx正方正方正方正方正方正方正方正方正方正方xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx(xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
专知会员服务
86+阅读 · 2020年12月5日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年3月28日
Arxiv
3+阅读 · 2018年10月18日
VIP会员
相关VIP内容
专知会员服务
51+阅读 · 2020年12月14日
专知会员服务
86+阅读 · 2020年12月5日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员