题目:

XLNet and Beyond

摘要:

我们提出XLNet,一个广义自回归预训练方法,(1)通过在分解次序的所有排列上最大化期望的可能性,使得学习双向上下文,并且(2)由于其自回归公式克服了伯特的限制。从经验来看,XLNet在20项任务上的表现都优于BERT,而且往往有很大的差距。此外,我们还将讨论类似XLNet的方法在实际应用中实现NLP工业化的重要性。

个人简介:

杨植麟,循环智能(Recurrent AI)的联合创始人。曾效力于Facebook AI Research和Google Brain,与多名图灵奖得主合作发表论文,其研究成果在三十余项标准任务取得state-of-the-art,是XLNet第一作者。本科毕业于清华大学,博士毕业于卡内基梅隆大学。

成为VIP会员查看完整内容
14

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
基于多头注意力胶囊网络的文本分类模型
专知会员服务
78+阅读 · 2020年5月24日
已删除
将门创投
4+阅读 · 2019年9月10日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Arxiv
13+阅读 · 2019年2月28日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
5+阅读 · 2017年9月8日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年9月10日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
微信扫码咨询专知VIP会员