To obtain high-quality sentence embeddings from pretrained language models (PLMs), they must either be augmented with additional pretraining objectives or finetuned on a large set of labeled text pairs. While the latter approach typically outperforms the former, it requires great human effort to generate suitable datasets of sufficient size. In this paper, we show how large PLMs can be leveraged to obtain high-quality embeddings without requiring any labeled data, finetuning or modifications to the pretraining objective: We utilize the generative abilities of PLMs to generate entire datasets of labeled text pairs from scratch, which can then be used for regular finetuning of much smaller models. Our fully unsupervised approach outperforms strong baselines on several English semantic textual similarity datasets.


翻译:为了从经过训练的语文模型中获取高质量的嵌入式,必须增加培训前目标,或者对一大批有标签的文本配对进行微调。虽然后一种方法通常优于前者,但需要人作出巨大的努力才能产生足够大小的合适数据集。在本文中,我们展示如何利用大型的PLM来获取高质量的嵌入式,而无需任何标签数据、微调或修改培训前目标:我们利用PLM的基因化能力从零开始生成全套有标签的文本配对数据集,然后用于对小得多的模型进行定期微调。我们完全无监督的方法在几个英文语义文本相似数据集上形成了强大的基线。

0
下载
关闭预览

相关内容

【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
8+阅读 · 2021年3月2日
Arxiv
5+阅读 · 2019年4月21日
Arxiv
5+阅读 · 2018年1月18日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
相关论文
Arxiv
8+阅读 · 2021年3月2日
Arxiv
5+阅读 · 2019年4月21日
Arxiv
5+阅读 · 2018年1月18日
Arxiv
5+阅读 · 2017年11月30日
Top
微信扫码咨询专知VIP会员