A ConvNet for the 2020s(论文翻译)

A ConvNet for the 2020s

Address

https://github.com/facebookresearch/ConvNeXt
https://arxiv.org/pdf/2201.03545.pdf

Abstract

ViT伴随着视觉的“20年代”咆哮而来,它迅速取代了 ConvNets,成为最先进的图像分类模型。另一方面,常规的 ViT 在应用于目标检测和语义分割等一般计算机视觉任务时面临困难。正是分层 Transformers(例如,Swin Transformers)重新引入了几个 ConvNet 先验,使 Transformers 作为通用视觉骨干实际上可行,并在各种视觉任务上表现出卓越的性能。然而,这种混合方法的有效性在很大程度上仍归功于 Transformer 的内在优势,而不是卷积固有的归纳偏置。在这项工作中,我们重新检查了设计空间并测试了纯 ConvNet 所能达到的极限。我们逐渐将标准 ResNet “现代化”为视觉 Transformer 的设计,并在此过程中发现了导致性能差异的几个关键组件。这种探索的结果是一系列纯 ConvNet 模型,称为 ConvNeXt。 ConvNeXts 完全由标准 ConvNet 模块构建,在准确性和可扩展性方面与 Transformer 竞争,实现 87.8% ImageNet top-1 准确率,在 CO

上一篇:行为型模式-备忘录&


下一篇:ViT (Vision Transformer) ---- Vision Transformer