本讲座的大部分内容将致力于两篇论文,它们试图做到这一点:通过使用概率和基于信息理论的度量,公平地比较生成模型的表现。第一篇论文详细介绍了如何通过总比特来评价(单语)开放词汇语言模型,第二篇论文思考了“信息”的意义以及如何使用它来比较机器翻译模型。

成为VIP会员查看完整内容
29

相关内容

最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
47+阅读 · 2020年11月30日
少即是多?非参数语言模型,68页ppt
专知会员服务
24+阅读 · 2020年11月22日
少标签数据学习,54页ppt
专知会员服务
205+阅读 · 2020年5月22日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
自然语言处理(NLP)前沿进展报告(PPT下载)
Arxiv
21+阅读 · 2019年8月21日
Arxiv
7+阅读 · 2018年1月30日
VIP会员
相关VIP内容
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
47+阅读 · 2020年11月30日
少即是多?非参数语言模型,68页ppt
专知会员服务
24+阅读 · 2020年11月22日
少标签数据学习,54页ppt
专知会员服务
205+阅读 · 2020年5月22日
微信扫码咨询专知VIP会员