深度学习知识点3-CBAM轻量的注意力模块


论文:(2018)包含空间注意力通道注意力两部分1807.06521https://arxiv.org/pdf/1807.06521

 通道注意力:对input feature maps每个feature map做全局平均池化和全局最大池化,得到两个1d向量,再经过conv,ReLU,1x1conv,sigmoid进行归一化后对input feature maps加权。

空间注意力:对feature map的每个位置的所有通道上做最大池化和平均池化,得到两个feature map,再对这两个feature map进行7x7 Conv,再使BN和sigmoid归一化。

局限性:CBAM是通过对每个位置的多个通道取最大值和平均值来作为加权系数,因此这种加权只考虑了局部范围的信息。

参考:CVPR2021|| Coordinate Attention注意力机制_位置注意力机制-****博客

上一篇:计算机组成原理与操作系统 第二章 处理机组成与管理


下一篇:如何制作代购系统的用户管理模块