Existing studies in black-box optimization for machine learning suffer from low generalizability, caused by a typically selective choice of problem instances used for training and testing different optimization algorithms. Among other issues, this practice promotes overfitting and poor-performing user guidelines. To address this shortcoming, we propose in this work a benchmark suite, OptimSuite, which covers a broad range of black-box optimization problems, ranging from academic benchmarks to real-world applications, from discrete over numerical to mixed-integer problems, from small to very large-scale problems, from noisy over dynamic to static problems, etc. We demonstrate the advantages of such a broad collection by deriving from it Automated Black Box Optimizer (ABBO), a general-purpose algorithm selection wizard. Using three different types of algorithm selection techniques, ABBO achieves competitive performance on all benchmark suites. It significantly outperforms previous state of the art on some of them, including YABBOB and LSGO. ABBO relies on many high-quality base components. Its excellent performance is obtained without any task-specific parametrization. The OptimSuite benchmark collection, the ABBO wizard and its base solvers have all been merged into the open-source Nevergrad platform, where they are available for reproducible research.


翻译:用于机器学习的黑箱优化现有研究具有较低的通用性,其原因是对用于培训和测试不同优化算法的问题进行典型的选择性选择,除其他问题外,这种做法促进超配和业绩不佳的用户准则。为解决这一缺陷,我们提议在这项工作中采用一个基准套件 " 优化 ",它涵盖从学术基准到现实应用等广泛的黑箱优化问题,从数字过大到混杂问题,从小到大问题,从小到大问题,从动态过急到静态问题等等。我们通过从中产生一个通用算法选择精华的自动黑箱优化师(ABBO),展示了这种广泛收集的优势。使用三种不同的算法选择技术,ABBO在所有基准套件上都取得了竞争性的绩效。它大大超越了包括YABBOBOB和LSGO在内的某些应用程序的以往状态。ABBO依靠许多高质量的基础组件。它的业绩是出色的,而没有任何具体任务分解问题的。我们从中获得了良好的业绩。我们从它得到的出色业绩,它是一个通用的黑箱优化的算法基础基础收集,ABABBA和ABO的所有基础基础数据库,在那里都有了它可以用来进行综合研究。

0
下载
关闭预览

相关内容

《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
159+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
280+阅读 · 2019年10月9日
已删除
架构文摘
3+阅读 · 2019年4月17日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
0+阅读 · 2021年4月13日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
3+阅读 · 2018年12月18日
VIP会员
相关资讯
已删除
架构文摘
3+阅读 · 2019年4月17日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员