Large-scale vision-language pre-training has shown impressive advances in a wide range of downstream tasks. Existing methods mainly model the cross-modal alignment by the similarity of the global representations of images and texts, or advanced cross-modal attention upon image and text features. However, they fail to explicitly learn the fine-grained semantic alignment between visual regions and textual phrases, as only global image-text alignment information is available. In this paper, we introduce LOUPE, a fine-grained semantically aLigned visiOn-langUage PrE-training framework, which learns fine-grained semantic alignment from the novel perspective of game-theoretic interactions. To efficiently compute the game-theoretic interactions, we further propose an uncertainty-aware neural Shapley interaction learning module. Experiments show that LOUPE achieves state-of-the-art performance on a variety of vision-language tasks. Furthermore, without any object-level human annotations and fine-tuning, LOUPE achieves competitive performance on object detection and visual grounding. More importantly, LOUPE opens a new promising direction of learning fine-grained semantics from large-scale raw image-text pairs. The repository of this work is at https://github.com/YYJMJC/LOUPE.


翻译:大规模视觉语言培训前培训在一系列广泛的下游任务中取得了令人印象深刻的进展。现有方法主要以图像和文字全球表述的相似性或图像和文字特征的高级超时关注来模拟跨模式调整;然而,它们未能明确学习视觉区域和文字短语之间的细微语义调整,因为只有全球图像-文字校正信息才能得到。在本文中,我们引入了LOUPE,这是一个精美的语义比对On-langUage PrE培训框架,从游戏-理论互动的新视角中学习精细的语义调整。为高效地理解游戏-理论互动,我们进一步提议了一个具有不确定性的神经特征互动学习模块。实验显示,LOUPE在各种视觉语言任务中达到了最先进的表现。此外,没有目标级人类描述和微调,LOUPE在对象探测和视觉定位互动互动的新动作上取得了具有竞争力的成绩。更重要的是,LOUPUPE在大型空间/视觉地面图像中开启了一个新的方向。

0
下载
关闭预览

相关内容

[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2021年9月13日
Arxiv
13+阅读 · 2017年12月5日
VIP会员
相关资讯
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Top
微信扫码咨询专知VIP会员