The state-of-the-art unsupervised contrastive visual representation learning methods that have emerged recently (SimCLR, MoCo, SwAV) all make use of data augmentations in order to construct a pretext task of instant discrimination consisting of similar and dissimilar pairs of images. Similar pairs are constructed by randomly extracting patches from the same image and applying several other transformations such as color jittering or blurring, while transformed patches from different image instances in a given batch are regarded as dissimilar pairs. We argue that this approach can result similar pairs that are \textit{semantically} dissimilar. In this work, we address this problem by introducing a \textit{batch curation} scheme that selects batches during the training process that are more inline with the underlying contrastive objective. We provide insights into what constitutes beneficial similar and dissimilar pairs as well as validate \textit{batch curation} on CIFAR10 by integrating it in the SimCLR model.


翻译:最近出现的最先进的、不受监督的对比性视觉显示学习方法(SimCLR、MoCo、SwaV)都利用数据扩增方法来构建由相似和不同图像组成的即时歧视的借口任务。 相似的对配是随机从同一张图像中提取补丁,并应用诸如颜色抖动或模糊等若干其他变体来构建的。 而从某批不同图像中转换成的补丁被视为不同配方。 我们争辩说,这一方法可以产生相似的对, 它们是不同的。 在这项工作中, 我们通过引入一个“ textit{batch curation} ” 计划来解决这个问题, 在培训过程中选择更符合基本对比目标的批次组。 我们通过将其纳入SIMCLR模型, 来提供对类似和不同配对的有益之处的洞察力, 以及对CIFAR10 的校准 textit{batch curation。

0
下载
关闭预览

相关内容

【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
5+阅读 · 2020年10月22日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
14+阅读 · 2021年3月10日
Arxiv
5+阅读 · 2020年10月22日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Top
微信扫码咨询专知VIP会员