为了加速DETR收敛,本文提出了一种简单而有效的方案来改进DETR框架,即空间调制协同注意(SMCA)机制。即插即用,让DETR涨点明显。性能优于可变形DETR、DETR等网络。
注1:文末附【Transformer】和【目标检测】交流群
注2:整理不易,点赞的人暴富,论文多多!
SMCA
Fast Convergence of DETR with Spatially Modulated Co-Attention
- 作者单位:港中文(李鸿升团队), 商汤(代季峰), 北大
- 论文:https://arxiv.org/abs/2101.07448
最近提出的检测Transformer (DETR)模型成功地将Transformer应用于目标检测,并与两阶段目标检测框架(如Faster-RCNN)实现了可比的性能。但是,DETR的收敛速度很慢。从头开始训练DETR 需要500个epochs才能达到很高的精度。为了加速其收敛,我们提出了一种简单而有效的方案来改进DETR框架,即空间调制协同注意(SMCA)机制。
SMCA的核心思想是通过将共同注意力响应限制在初始估计的边界框位置附近较高的方式,在DETR中进行回归感知共同注意。我们提出的SMCA通过替换解码器中的原始共同注意机制来提高DETR的收敛速度,同时保持DETR中的其他操作不变。
细节如下(推荐去看原文哈)
主要贡献:
实验结果
与具有基于卷积的主干的DETR相比,我们成熟的SMCA可以实现更好的性能(108 epoch时为45.6 mAP,而原来是500 epoch时为43.3 mAP)。
我们对COCO数据集进行了广泛的消融研究,以验证所提出的SMCA的有效性。
交流群
CVer-目标检测交流群,已建立CVer-目标检测微信交流群!想要进目标检测学习交流群的同学,可以直接加微信号:CVer6666。加的时候备注一下:目标检测+学校+昵称,即可。然后就可以拉你进群了。
CVer-Transformer交流群,建了CVer-Transformer交流群!想要进Transformer学习交流群的同学,可以直接加微信号:CVer6666。加的时候备注一下:Transformer+学校+昵称,即可。然后就可以拉你进群了。
强烈推荐大家关注CVer知乎账号和CVer微信公众号,可以快速了解到最新优质的CV论文。
▲长按关注CVer公众号