The recurrent neural network (RNN) is appropriate for dealing with temporal sequences. In this paper, we present a deep RNN with new features and apply it for online handwritten Chinese character recognition. Compared with the existing RNN models, three innovations are involved in the proposed system. First, a new hidden layer function for RNN is proposed for learning temporal information better. we call it Memory Pool Unit (MPU). The proposed MPU has a simple architecture. Second, a new RNN architecture with hybrid parameter is presented, in order to increasing the expression capacity of RNN. The proposed hybrid-parameter RNN has parameter changes when calculating the iteration at temporal dimension. Third, we make a adaptation that all the outputs of each layer are stacked as the output of network. Stacked hidden layer states combine all the hidden layer states for increasing the expression capacity. Experiments are carried out on the IAHCC-UCAS2016 dataset and the CASIA-OLHWDB1.1 dataset. The experimental results show that the hybrid-parameter RNN obtain a better recognition performance with higher efficiency (fewer parameters and faster speed). And the proposed Memory Pool Unit is proved to be a simple hidden layer function and obtains a competitive recognition results.


翻译:经常性神经网络( RNN) 适合处理时间序列。 在本文中, 我们展示了一个带有新特征的深 RNNN, 并将其应用于在线手写中文字符识别。 与现有的 RNN 模型相比, 有三个创新涉及拟议系统中的系统。 首先, 提议为 RNN 设置一个新的隐藏层功能, 以更好地学习时间信息。 我们称它为内存集合单元( MPU) 。 提议的 MPU 结构简单。 其次, 提供了一个新的带有混合参数的 RNN 结构, 以提高 RNN 的表达能力。 拟议的混合参数RNNN 在计算时间尺度的循环时, 参数有变化。 第三, 我们做了调整, 每个层的所有输出都堆叠成网络的输出。 堆放式隐藏层将所有隐藏层状态结合起来, 以提高表达能力。 在IAHCC- UCAS2016 数据集和 CASIA- OLHDB1.1 数据集上进行了实验。 实验结果显示, 混合参数 RNNNN 在计算时, 在计算时, 以更高效率( 参数和更快的速度计算时, ) 。, 所拟议的竞争性记忆库函数将被证明为简单的识别。 。

0
下载
关闭预览

相关内容

RNN:循环神经网络,是深度学习的一种模型。
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
61+阅读 · 2020年5月9日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Arxiv
3+阅读 · 2018年10月25日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Top
微信扫码咨询专知VIP会员