图像分类资源汇总----持续跟新

①ResNet最强改进版来了!ResNeSt:分散-注意力网络

ResNeSt-50在ImageNet上实现了81.13%的top-1,简单地用ResNeSt-50替换ResNet-50,可以将MS-COCO上的FasterRCNN的mAP从38.5%提高到41.4%!代码现已开源!作者团队:亚马逊(张航和李沐等)&UC Davis

尽管图像分类模型最近不断发展,但是由于其简单而模块化的结构,大多数下游应用程序(例如目标检测和语义分割)仍将ResNet变体用作backbone。我们展示了一个简单的模块:Split-Attention,该块可实现跨特征图的注意力。通过以ResNet样式堆叠这些Split-Attention块,我们获得了一个称为ResNeSt的新ResNet变体。我们的网络保留了完整的ResNet结构,可直接用于下游任务,而不会引起额外的计算成本。ResNeSt模型的模型复杂度优于其他网络。例如,ResNeSt-50使用224×224的单个作物尺寸在ImageNet上实现了81.13%的top-1精度,比以前最好的ResNet变种高出1%以上。此改进还有助于下游任务,包括目标检测,实例分割和语义分割。例如,通过简单地用ResNeSt-50替换ResNet-50主干,我们将MS-COCO上的FasterRCNN的mAP从38.5%提高到41.4%,将ADE20K上的DeeplabV3的mIoU从42.1%提高到45.1%。
《ResNeSt: Split-Attention Networks》

上一篇:ResNet几种变体,以及DenseNet解释


下一篇:AttributeError: 'AvgPool2d' object has no attribute 'divisor_override'