我们考虑这样一个问题:你如何为对比学习抽取好的负样本例子?我们认为,与度量学习一样,学习对比表示法受益于硬负样本(即,点很难与锚点区分)。使用硬负样本的关键挑战是对比方法必须保持无监督,使得采用现有的使用标签信息的负样本抽样策略不可行。作为回应,我们开发了一种新的无监督的方法来选择硬负样本,在那里用户可以控制硬负样本的数量。这种抽样的极限情况会导致对每个类进行紧密聚类的表示,并将不同的类推到尽可能远的地方。该方法提高了跨模态的下游性能,只需要少量的额外代码来实现,并且没有引入计算开销。

https://arxiv.org/pdf/2010.04592.pdf

成为VIP会员查看完整内容
40

相关内容

近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
57+阅读 · 2020年9月15日
专知会员服务
75+阅读 · 2020年9月1日
【2020 最新论文】对比学习中什么应该不是对比的?
专知会员服务
39+阅读 · 2020年8月16日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
91+阅读 · 2020年7月4日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
博客 | MIT—线性代数(下)
AI研习社
6+阅读 · 2018年12月20日
机器学习(16)之支持向量机原理(二)软间隔最大化
机器学习算法与Python学习
6+阅读 · 2017年9月8日
Arxiv
4+阅读 · 2019年2月8日
VIP会员
相关主题
相关VIP内容
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
57+阅读 · 2020年9月15日
专知会员服务
75+阅读 · 2020年9月1日
【2020 最新论文】对比学习中什么应该不是对比的?
专知会员服务
39+阅读 · 2020年8月16日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
91+阅读 · 2020年7月4日
相关资讯
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
博客 | MIT—线性代数(下)
AI研习社
6+阅读 · 2018年12月20日
机器学习(16)之支持向量机原理(二)软间隔最大化
机器学习算法与Python学习
6+阅读 · 2017年9月8日
微信扫码咨询专知VIP会员