神经网络搜索(Neuarl Architecture Search)是近年来兴起的热门方向。在这次 ICML 的文章中,我们提出了 Few-shot NAS, 通过分割搜索空间,对分割后的子空间独立建立了一个子超网络(sub-supernet)来预测网络性能。通过建立 one-shot NAS 和传统挨个训练 NAS 的联系,few-shot NAS 巧妙继承了两种方法的优点,兼有 one-shot NAS 的快速和传统 NAS 的准确网络性能评估。大量实验表明 few-shot NAS 是一个简单易行的方法,在不同任务上和数据集上能提升当下几乎所有的 NAS 方法,包括 ImageNet 及 CIFAR-10 的分类任务和 GAN 这样的生成任务等。该文章被 ICML-2021 接收为 long talk。

论文链接:https://www.zhuanzhi.ai/paper/1dcafa33a4d3b9d9aa3004f85f92dcf0 源代码链接:https://github.com/facebookresearch/LaMCTS

成为VIP会员查看完整内容
25

相关内容

【CVPR2021】面向视频动作分割的高效网络结构搜索
专知会员服务
14+阅读 · 2021年3月14日
专知会员服务
58+阅读 · 2021年2月12日
专知会员服务
29+阅读 · 2020年10月24日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Arxiv
8+阅读 · 2020年6月15日
VIP会员
相关VIP内容
【CVPR2021】面向视频动作分割的高效网络结构搜索
专知会员服务
14+阅读 · 2021年3月14日
专知会员服务
58+阅读 · 2021年2月12日
专知会员服务
29+阅读 · 2020年10月24日
微信扫码咨询专知VIP会员