文本生成的目标是让机器用人类语言表达。它是自然语言处理(NLP)中最重要也是最具挑战性的任务之一。自2014年以来,各种由Seq2Seq首创的神经编解码器模型被提出,通过学习将输入文本映射到输出文本来实现这一目标。然而,仅凭输入文本往往无法提供有限的知识来生成所需的输出,因此在许多真实场景中,文本生成的性能仍然远远不能令人满意。为了解决这个问题,研究人员考虑将输入文本之外的各种形式的知识纳入生成模型中。这一研究方向被称为知识增强文本生成。在这项综述中,我们提出了一个全面的综述,在过去的五年里,知识增强文本生成的研究。主要内容包括两部分:(一)将知识集成到文本生成中的一般方法和体系结构;(二)根据不同形式的知识数据的具体技术和应用。这项综述在学术界和工业可以有广泛的受众,研究人员和实践者。

https://arxiv.org/abs/2010.04389

成为VIP会员查看完整内容
78

相关内容

【2020新书】深度学习自然语言处理简明导论,69页pdf
专知会员服务
117+阅读 · 2020年11月7日
最新《低资源自然语言处理》综述论文,21页pdf
专知会员服务
61+阅读 · 2020年10月27日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
26+阅读 · 2020年8月19日
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
37+阅读 · 2020年8月8日
最新《动态网络嵌入》综述论文,25页pdf
专知
37+阅读 · 2020年6月17日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
Arxiv
0+阅读 · 2020年11月24日
Arxiv
3+阅读 · 2019年11月28日
VIP会员
相关主题
相关VIP内容
【2020新书】深度学习自然语言处理简明导论,69页pdf
专知会员服务
117+阅读 · 2020年11月7日
最新《低资源自然语言处理》综述论文,21页pdf
专知会员服务
61+阅读 · 2020年10月27日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
26+阅读 · 2020年8月19日
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
37+阅读 · 2020年8月8日
微信扫码咨询专知VIP会员