Transformer-based models have led to a significant innovation in various classic and practical subjects, including speech processing, natural language processing, and computer vision. On top of the transformer, the attention-based end-to-end automatic speech recognition (ASR) models have become a popular fashion in recent years. Specifically, the non-autoregressive modeling, which can achieve fast inference speed and comparable performance when compared to conventional autoregressive methods, is an emergent research topic. In the context of natural language processing, the bidirectional encoder representations from transformers (BERT) model has received widespread attention, partially due to its ability to infer contextualized word representations and to obtain superior performances of downstream tasks by performing only simple fine-tuning. In order to not only inherit the advantages of non-autoregressive ASR modeling, but also receive benefits from a pre-trained language model (e.g., BERT), a non-autoregressive transformer-based end-to-end ASR model based on BERT is presented in this paper. A series of experiments conducted on the AISHELL-1 dataset demonstrates competitive or superior results of the proposed model when compared to state-of-the-art ASR systems.


翻译:在变压器之外,基于关注的端到端自动语音识别模型近年来已成为流行的模式。具体地说,与传统的自动递减方法相比,非偏向型模型能够实现快速推导速度和可比性能,它是一个新兴的研究课题。在自然语言处理方面,变压器的双向变压器的双向编码器演示得到了广泛的注意,部分原因是它能够推断背景化的字面表述,并且能够通过仅仅进行简单的微调获得下游任务的优异性能。为了不仅继承非偏向型语音识别模型的优势,而且还从预先培训的语言模型(例如,BERT)中获益。在自然语言处理方面,变压器模型的端到端,基于BERT的ASR模型得到了广泛的关注。在AISELL-1号模型上进行的一系列实验,展示了在AISELL-1号数据系统比较优劣的情况下,AISALL-1号模型展示了高水平数据系统。

0
下载
关闭预览

相关内容

语音识别是计算机科学和计算语言学的一个跨学科子领域,它发展了一些方法和技术,使计算机可以将口语识别和翻译成文本。 它也被称为自动语音识别(ASR),计算机语音识别或语音转文本(STT)。它整合了计算机科学,语言学和计算机工程领域的知识和研究。
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
38+阅读 · 2021年4月9日
最新《Transformers模型》教程,64页ppt
专知会员服务
319+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
基于BERT的ASR纠错
深度学习自然语言处理
8+阅读 · 2020年7月16日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
三分钟带你读懂 BERT
AI研习社
3+阅读 · 2019年3月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年6月4日
Arxiv
6+阅读 · 2020年4月14日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
VIP会员
相关资讯
基于BERT的ASR纠错
深度学习自然语言处理
8+阅读 · 2020年7月16日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
三分钟带你读懂 BERT
AI研习社
3+阅读 · 2019年3月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员