点击上方“CVer”,选择加"星标"或“置顶”
重磅干货,第一时间送达
作者:孙明
https://zhuanlan.zhihu.com/p/83310317
本文已由作者授权,未经允许,不得二次转载
在这里介绍一下最近做的两篇关于物体检测的论文,主要解决的问题是scale,前提是不牺牲测试速度。
(1)通过learning方式学习dilation
https://arxiv.org/abs/1909.02225
(2)通过automl的方式搜索dilation
https://arxiv.org/abs/1909.02293
(一)问题
检测里面scale变化非常大,其中我认为解决比较好的方案之一是deformable,通过局部密集采样方式,自适应其变化。但是这用解决问题的方式带来的问题是,速度非常慢,且很难加速。
(二)分析
我们自己重新分解了一下deformable中学习的局部不规则9个采样点,可以把这9个点的变换分解成 中心点的偏移,整个矩形框面积的变换,以及局部形状的变换。发现其中最核心的变化是矩形框的面积,而不是矩形框的形状和中心点。这个也很好理解,矩形框的面积改变的是感受野,矩形框的边缘是感受形状信息。
换句话说,采样的矩形框自由度不需要那么高(不规则),是个矩形就行。什么操作可以改变采样矩形框且不影响速度呢?dilation就行。这个是我们做的第一步分解,使得局部操作可以加速。
但是第二个问题是,这种局部的密集采样还是非常慢的。能不能舍弃这种做法?空间的密集目的是想特征抽取的更好,也就是output特征更好。但是output特征除了在采样数据那边做,也可以在卷积核上做。为了速度,我们做了第二步分解,我们把空间的多样性,分解到卷积核上。具体做法是,分组。不同的分组,采用不同的dilation。最后的特征,对于每个ROI而言,也能看到更大的特征。
(三)浮点的dilation + group
找到了这两步,基本就能解决要解决的问题,局部ROI需要更丰富的特征并不增加耗时。具体的解法可以看论文。试验结果
(四)进阶版
实际细想就是两个超参,每个卷积的dilation数值和group的分组数。学习的方式难免有局限,得益于强大的搜索算法,我们直接搜索了这两个超参,也算是比较早直接在channel 级别搜索的论文,具体可以看我们的NIPS论文。
(五)展望
一切的前提都是速度不变情况下,如何解决问题。这个scale问题还远远没有解决,最近我们也有了新的解法,近期也会放出来。当然除了这个问题,检测还有很多问题。比如检测和分类的NAS有何不同?硬核问题太多了。
重磅!CVer-目标检测交流群成立啦
扫码添加CVer助手,可申请加入CVer-目标检测交流群,同时还可以加入目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测和模型剪枝&压缩等群。一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡)
▲长按加群
▲长按关注我们
麻烦给我一个在看!