In this paper, we explore learning end-to-end deep neural trackers without tracking annotations. This is important as large-scale training data is essential for training deep neural trackers while tracking annotations are expensive to acquire. In place of tracking annotations, we first hallucinate videos from images with bounding box annotations using zoom-in/out motion transformations to obtain free tracking labels. We add video simulation augmentations to create a diverse tracking dataset, albeit with simple motion. Next, to tackle harder tracking cases, we mine hard examples across an unlabeled pool of real videos with a tracker trained on our hallucinated video data. For hard example mining, we propose an optimization-based connecting process to first identify and then rectify hard examples from the pool of unlabeled videos. Finally, we train our tracker jointly on hallucinated data and mined hard video examples. Our weakly supervised tracker achieves state-of-the-art performance on the MOT17 and TAO-person datasets. On MOT17, we further demonstrate that the combination of our self-generated data and the existing manually-annotated data leads to additional improvements.


翻译:在本文中,我们探索如何在不跟踪说明的情况下学习端到端深神经跟踪器。 这很重要, 因为大型培训数据对于培训深神经跟踪器至关重要, 而跟踪说明则非常昂贵。 作为跟踪说明的替代, 我们首先使用缩进/ 出动转换来获取自由跟踪标签, 使用带框说明的图像中产生幻觉的视频。 我们添加视频模拟增强器来创建多样化的跟踪数据集, 尽管使用简单的动作 。 其次, 为了处理更困难的跟踪案例, 我们将在一个没有标签的真实视频库中埋设一些硬性实例, 并配有受过关于我们幻影视频数据培训的跟踪器。 例如, 我们提议一个基于优化的连接程序, 以便首先识别并纠正来自未贴标签的视频库中的硬性实例。 最后, 我们共同培训我们的跟踪器, 使用有软化的数据和摄像的硬性视频实例。 我们受监管的跟踪器在MOT17 和 TAO- 人数据集上取得了最先进的表现。 在 MOT17 上, 我们进一步展示了我们的自我生成的数据和现有手动附加说明数据的组合, 导致进一步的改进。

0
下载
关闭预览

相关内容

【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
22+阅读 · 2021年4月20日
专知会员服务
45+阅读 · 2020年10月31日
【DeepMind】强化学习教程,83页ppt
专知会员服务
158+阅读 · 2020年8月7日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
216+阅读 · 2020年4月26日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
7+阅读 · 2017年12月26日
VIP会员
相关论文
Arxiv
17+阅读 · 2021年3月29日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
7+阅读 · 2017年12月26日
Top
微信扫码咨询专知VIP会员