尽管生成式预训练语言模型在一系列文本生成任务上取得了成功,但在生成过程中需要对基本常识进行推理的情况下,它们仍然会受到影响。现有的将常识知识整合到生成的预训练语言模型中的方法,只是简单地通过对单个知识三元组的后训练来迁移关系知识,而忽略了知识图谱中丰富的连接。我们认为,利用知识图谱的结构和语义信息有助于常识感知文本的生成。在本文中,我们提出用多跳推理流(GRF)进行生成,使预训练的模型能够在从外部常识知识图谱中提取的多关系路径上进行动态多跳推理。我们的经验表明,我们的模型在三个文本生成任务上优于现有的基线,这些任务需要推理而非常识知识。通过模型推导出的推理路径,证明了动态多跳推理模块的有效性,为生成过程提供了理论依据。

https://arxiv.org/abs/2009.11692

成为VIP会员查看完整内容
74

相关内容

近期必读的六篇 EMNLP 2020【知识图谱】相关论文和代码
专知会员服务
43+阅读 · 2020年11月10日
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
37+阅读 · 2020年8月8日
专知会员服务
40+阅读 · 2020年6月19日
论文浅尝 | 利用问题生成提升知识图谱问答
开放知识图谱
20+阅读 · 2019年11月5日
Arxiv
3+阅读 · 2018年3月28日
Arxiv
4+阅读 · 2018年1月29日
VIP会员
微信扫码咨询专知VIP会员