DeepStruct: 面向结构化预测任务的预训练语言模型 | 论文荐读

2022 年 3 月 22 日 学术头条

作者:

Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, Dawn Song

Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, and Dawn Song. DeepStruct: Pre-Training of Language Models for Structure Prediction. In Proceedings of the 60th Annual Meeting of the Association of Computational Linguistics (Findings of ACL'22).

本文介绍了一种提高语言模型的结构理解能力的方法。与以往面向特定任务设计和优化模型不同,我们对语言模型进行预训练,使其在一系列与任务无关的语料库上从文本中生成结构化的预测。我们的结构预训练使模型在结构任务方面所学到的知识得到零的转移。我们在 27 个数据集上研究了这种方法的性能,这些数据集横跨 10 个结构预测任务,包括开放信息提取、联合实体和关系提取、命名实体识别、关系分类、语义角色标记、事件抽取、指代消歧、知识探测、意图检测和对话状态跟踪。我们通过特定任务的训练集进一步进行多任务学习。我们表明,一个百亿参数的语言模型可以轻松地转移到大多数任务上,并以单一模型在我们评估的 27 个数据集中的 20 个上获得了最先进的性能。

点击【在看】及时获取更多讯息

登录查看更多
2

相关内容

专知会员服务
17+阅读 · 2021年8月24日
专知会员服务
42+阅读 · 2021年6月6日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
24+阅读 · 2020年4月7日
论文浅尝 | 将结构预测作为增广自然语言间的翻译任务
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
35+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
24+阅读 · 2017年3月9日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
35+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员