We study the task of generating from Wikipedia articles question-answer pairs that cover content beyond a single sentence. We propose a neural network approach that incorporates coreference knowledge via a novel gating mechanism. Compared to models that only take into account sentence-level information (Heilman and Smith, 2010; Du et al., 2017; Zhou et al., 2017), we find that the linguistic knowledge introduced by the coreference representation aids question generation significantly, producing models that outperform the current state-of-the-art. We apply our system (composed of an answer span extraction system and the passage-level QG system) to the 10,000 top-ranking Wikipedia articles and create a corpus of over one million question-answer pairs. We also provide a qualitative analysis for this large-scale generated corpus from Wikipedia.


翻译:我们研究从维基百科文章中产生涵盖单句以外内容的问答对子的任务。我们建议采用神经网络方法,通过新颖的格子机制将知识纳入共同参考。与只考虑判决一级信息的模型相比(Heilman和Smith,2010年;Du等人,2017年;Zhou等人,2017年),我们发现,共同参考代表引入的语言知识极大地帮助了问题生成,产生了优于目前最新水平的模型。我们对10 000篇维基百科顶级文章采用了我们的系统(由回答跨度提取系统和通过级QG系统组成),并创建了100多万对问答的组合。我们还对这一从维基百科生成的大型材料进行了定性分析。

3
下载
关闭预览

相关内容

维基百科( Wikipedia.org)是一个基于 Wiki 技术的全球性多语言百科全书协作项目,同时也是一部在网际网络上呈现的网络百科全书网站,其目标及宗旨是为全人类提供自由的百科全书。目前 Alexa 全球网站排名第六。
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
跨越注意力:Cross-Attention
我爱读PAMI
172+阅读 · 2018年6月2日
VIP会员
相关VIP内容
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
跨越注意力:Cross-Attention
我爱读PAMI
172+阅读 · 2018年6月2日
Top
微信扫码咨询专知VIP会员