We introduce the sequential neural posterior and likelihood approximation (SNPLA) algorithm. SNPLA is a normalizing flows-based algorithm for inference in implicit models. Thus, SNPLA is a simulation-based inference method that only requires simulations from a generative model. Compared to similar methods, the main advantage of SNPLA is that our method jointly learns both the posterior and the likelihood. SNPLA completely avoid Markov chain Monte Carlo sampling and correction-steps of the parameter proposal function that are introduced in similar methods, but that can be numerically unstable or restrictive. Over four experiments, we show that SNPLA performs competitively when utilizing the same number of model simulations as used in other methods, even though the inference problem for SNPLA is more complex due to the joint learning of posterior and likelihood function.


翻译:我们引入了相继神经后视和概率近似算法。 SNPLA 是一种基于流动的正常算法,用于在隐含模型中推断。 因此, SNPLA 是一种基于模拟的推论方法,只需要从基因模型中进行模拟。 与类似方法相比,SNPLA的主要优点是,我们的方法共同学习了后视和可能性。 SNPLA 完全避免了以类似方法引入的Markov链 Monte Carlo 取样和参数建议功能的校正步骤,但这些功能在数字上可能不稳定或限制性。 在四个实验中,我们显示SNPLA在使用其他方法中使用的相同数量的模型模拟时具有竞争力,尽管由于共同学习后视和概率功能,SNPLA的推论问题更为复杂。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
已删除
将门创投
3+阅读 · 2019年10月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
3+阅读 · 2018年6月18日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年10月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员