Generative models can have distinct mode of failures like mode dropping and low quality samples, which cannot be captured by a single scalar metric. To address this, recent works propose evaluating generative models using precision and recall, where precision measures quality of samples and recall measures the coverage of the target distribution. Although a variety of discrepancy measures between the target and estimated distribution are used to train generative models, it is unclear what precision-recall trade-offs are achieved by various choices of the discrepancy measures. In this paper, we show that achieving a specified precision-recall trade-off corresponds to minimising -divergences from a family we call the {\em PR-divergences }. Conversely, any -divergence can be written as a linear combination of PR-divergences and therefore correspond to minimising a weighted precision-recall trade-off. Further, we propose a novel generative model that is able to train a normalizing flow to minimise any -divergence, and in particular, achieve a given precision-recall trade-off.


翻译:为了解决这个问题,最近的工作提议利用精确度量样品质量和回顾度量目标分布范围的方法来评价基因模型。虽然使用指标和估计分布之间的各种差异性衡量方法来训练基因模型,但还不清楚对差异性衡量方法的不同选择能达到何种精确-召回权衡。在本文中,我们表明,实现特定精确-召回权衡与我们称为 ~PR-引力的家庭的最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-重度-最小度-最小度-临界度-最小度-最小度-最小度-最小度-临界值-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小值-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小度-最小值-最小度-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小值-最小

0
下载
关闭预览

相关内容

《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员