Neural Processes (NPs) are a popular class of approaches for meta-learning. Similar to Gaussian Processes (GPs), NPs define distributions over functions and can estimate uncertainty in their predictions. However, unlike GPs, NPs and their variants suffer from underfitting and often have intractable likelihoods, which limit their applications in sequential decision making. We propose Transformer Neural Processes (TNPs), a new member of the NP family that casts uncertainty-aware meta learning as a sequence modeling problem. We learn TNPs via an autoregressive likelihood-based objective and instantiate it with a novel transformer-based architecture. The model architecture respects the inductive biases inherent to the problem structure, such as invariance to the observed data points and equivariance to the unobserved points. We further investigate knobs within the TNP framework that tradeoff expressivity of the decoding distribution with extra computation. Empirically, we show that TNPs achieve state-of-the-art performance on various benchmark problems, outperforming all previous NP variants on meta regression, image completion, contextual multi-armed bandits, and Bayesian optimization.


翻译:神经过程(NPs) 是一种流行的元学习方法。 与Gausian processes(GPs) 相似, NPs 定义了功能的分布,并可以估计其预测中的不确定性。 但是,与GPs不同, NPs及其变体存在不完善的问题,而且往往存在难以解决的可能性,从而限制了其在连续决策中的应用。 我们提议了变换神经过程(TNPs),这是NP家族的一个新成员,将不确定性和觉察元学习作为一种序列模型问题。 我们通过自动递增可能性目标学习TNPs, 并用新的变异器结构即时化。 模型结构尊重问题结构固有的诱导偏向性偏向,例如对观测到的数据点的变异性和对未观察到的点的变异性。 我们进一步调查TNP框架内的 knobs, 以额外的计算来权衡分解分布的明显偏向性。 我们想象到, TNPs在各种基准问题上取得了最先进的表现, 超越了以前所有背景的、 基数级的升级的图像。

0
下载
关闭预览

相关内容

海军研究生院(The Naval Postgraduate School,NPS)是一所公立研究生院,成立于1909年,目前该学院位于美国加利福尼亚州蒙特雷市。海军研究生院主要提供以国防为重点的研究生教育,针对海军独特需求、美国武装部队、国防部文职人员和国际合作伙伴提供多个研究领域的硕士和博士学位,主要包括电子与计算机工程、机械与航空工程、计算机科学、信息科学、国防分析、国家安全事务专业、国防资源管理、军民关系研究、持久和平的领导与教育、本土防御与安全等专业,该研究院旨在提高海军服务的作战效率、技术领导力和作战优势。
不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
76+阅读 · 2022年6月28日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
15+阅读 · 2022年6月14日
Arxiv
30+阅读 · 2021年7月7日
Arxiv
16+阅读 · 2021年3月2日
Arxiv
12+阅读 · 2019年2月26日
VIP会员
相关VIP内容
不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
76+阅读 · 2022年6月28日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
相关资讯
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关论文
Arxiv
15+阅读 · 2022年6月14日
Arxiv
30+阅读 · 2021年7月7日
Arxiv
16+阅读 · 2021年3月2日
Arxiv
12+阅读 · 2019年2月26日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员