用类似 CLIP 的视觉-语言模型进行持续学习,为构建可扩展的机器学习系统提供了新途径,主要得益于其强大的可迁移表示能力。现有基于 CLIP 的方法通常通过为每个任务添加一组或多组可学习参数来适配预训练的图像编码器,推理时需选择对应任务的参数集。然而,这种做法在推理阶段容易出错,进而导致性能下降。 为解决这一问题,本文提出了 LADA(Label-specific ADApter,标签特定型适配器)。与以往方法按任务划分参数不同,LADA 在冻结的 CLIP 图像编码器后追加了轻量级的、标签特定的记忆单元。这些记忆单元可整合任务无关的知识,生成更具判别性的特征表示。

为了避免灾难性遗忘,LADA 针对已学习类别引入了特征蒸馏机制,防止新类的学习对旧类特征造成干扰。由于 LADA 被设计在图像编码器之后,其训练过程中不会将梯度反向传播至冻结的 CLIP 参数,从而保证了训练效率。

大量实验结果表明,LADA 在持续学习任务中达到了当前最优的性能。代码已开源,地址为: 👉 https://github.com/MaolinLuo/LADA

成为VIP会员查看完整内容
5

相关内容

【IJCAI2025】用于大型语言模型的块循环适配器
专知会员服务
9+阅读 · 5月2日
【AAAI2025】SAIL:面向样本的上下文学习用于文档信息提取
专知会员服务
20+阅读 · 2024年12月24日
【KDD2024】Hypformer:在双曲空间中探索高效的双曲变换器
【CVPR2024】渐进式语义引导视觉变换器用于零样本学习
专知会员服务
19+阅读 · 2024年4月13日
【WWW2024】RecDCL: 双重对比学习用于推荐
专知会员服务
22+阅读 · 2024年1月30日
【ICML2022】Transformer是元强化学习器
专知会员服务
55+阅读 · 2022年6月15日
专知会员服务
38+阅读 · 2021年4月25日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
169+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
463+阅读 · 2023年3月31日
Arxiv
24+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
19+阅读 · 2018年10月25日
VIP会员
相关VIP内容
【IJCAI2025】用于大型语言模型的块循环适配器
专知会员服务
9+阅读 · 5月2日
【AAAI2025】SAIL:面向样本的上下文学习用于文档信息提取
专知会员服务
20+阅读 · 2024年12月24日
【KDD2024】Hypformer:在双曲空间中探索高效的双曲变换器
【CVPR2024】渐进式语义引导视觉变换器用于零样本学习
专知会员服务
19+阅读 · 2024年4月13日
【WWW2024】RecDCL: 双重对比学习用于推荐
专知会员服务
22+阅读 · 2024年1月30日
【ICML2022】Transformer是元强化学习器
专知会员服务
55+阅读 · 2022年6月15日
专知会员服务
38+阅读 · 2021年4月25日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
相关论文
Arxiv
169+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
463+阅读 · 2023年3月31日
Arxiv
24+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
19+阅读 · 2018年10月25日
微信扫码咨询专知VIP会员