爆肝何恺明的视觉预训练新范式MAE!

2022 年 1 月 12 日 CVer

何恺明大神在去年11月发表了一篇新论文:Masked Autoencoders Are Scalable Vision Learners证明了 masked autoencoders(MAE) 是一种可扩展的计算机视觉自监督学习方法。


本文提出了一种掩膜自编码器 (MAE)架构,可以作为计算机视觉的可扩展自监督学习器使用,而且效果显著。


此文最大的贡献,可能是在NLP和CV两大领域之间架起了一座更简便的桥梁。


深度之眼特邀讲师电子羊,将用1个小时的时间,为大家直播讲解本篇论文。

1月14日晚20:00直播

扫码0.1元订阅

附赠老师直播PPT课件




登录查看更多
2

相关内容

掩码自编码MAE
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
32+阅读 · 2022年3月12日
专知会员服务
39+阅读 · 2021年5月16日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
23+阅读 · 2020年9月16日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
23+阅读 · 2020年9月16日
Top
微信扫码咨询专知VIP会员