本教程将介绍自注意力机制在计算机视觉中的应用。Self-Attention在NLP中被广泛采用,完全注意的Transformer模型已经在很大程度上取代了RNN,现在被用于最先进的语言理解模型,如GPT、BERT、XLNet、T5、Electra和Meena。因此,人们对研究自注意力是否能在计算机视觉中产生同样巨大而深远的影响产生了极大的兴趣。然而,由于视觉任务与语言任务具有不同的性质,因此许多研究都致力于探索自注意力在视觉模型中的最佳应用方式。本教程将涵盖视觉中自注意力的许多不同应用,以便让用户对这个子领域有一个广泛而精确的理解。

https://icml.cc/Conferences/2021/Schedule

成为VIP会员查看完整内容
135

相关内容

专知会员服务
79+阅读 · 2021年7月23日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
42+阅读 · 2020年12月10日
专知会员服务
326+阅读 · 2020年11月24日
最新《域自适应视觉应用》ECCV2020教程,43页PPT
专知会员服务
27+阅读 · 2020年11月5日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
181+阅读 · 2020年5月29日
计算机视觉中深度迁移学习,165页PPT
专知
23+阅读 · 2019年8月18日
自注意力机制在计算机视觉中的应用【附PPT与视频资料】
人工智能前沿讲习班
17+阅读 · 2018年12月20日
Arxiv
0+阅读 · 2021年9月18日
Arxiv
6+阅读 · 2017年12月7日
VIP会员
相关VIP内容
专知会员服务
79+阅读 · 2021年7月23日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
42+阅读 · 2020年12月10日
专知会员服务
326+阅读 · 2020年11月24日
最新《域自适应视觉应用》ECCV2020教程,43页PPT
专知会员服务
27+阅读 · 2020年11月5日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
181+阅读 · 2020年5月29日
微信扫码咨询专知VIP会员