YOLO11改进|注意力机制篇|引入NAM注意力机制

在这里插入图片描述

目录

    • 一、【NAM】注意力机制
      • 1.1【NAM】注意力介绍
      • 1.2【NAM】核心代码
    • 二、添加【NAM】注意力机制
      • 2.1STEP1
      • 2.2STEP2
      • 2.3STEP3
      • 2.4STEP4
    • 三、yaml文件与运行
      • 3.1yaml文件
      • 3.2运行成功截图

一、【NAM】注意力机制

1.1【NAM】注意力介绍

在这里插入图片描述

下图是【NAM】的结构图,让我们简单分析一下运行过程和优势

通道注意力模块(Channel Attention Module)

  • 处理过程:
  • 输入特征 ????1:输入的特征图首先经过 Batch Normalization(BN),这一步通过标准化处理特征,消除不同通道特征之间的分布差异。
    通道重要性权重计算:每个通道的特征通过一个权重计算公式来计算其重要性权重 ????????。如图中所示,通道权重 ????????是通过对每个通道的响应 ????????进行归一化处理得到的,即 ????????=????????∑???????????? 。
  • 加权操作:通过计算得到的权重乘以原始输入特征图的每个通道,调整不同通道特征的权重,突出重要特征。
  • 激活函数:最后,经过 Sigmoid 激活函数来进一步压缩权重范围至 [0,1],并生成最终的通道注意力特征 ????????。
  • 优势:
  • 增强通道间的特征表示能力:通道注意力机制通过对每个通道分配不同权重,可以增强模型对重要通道的关注,过滤掉不重要的特征通道,从而提升分类或检测任务的效果。
  • 提高特征选择性:通道注意力使得模型能够动态地选择更有利于当前任务的特征,提升模型的表现,尤其在处理复杂场景时有显著效果。

2. 空间注意力模块(Spatial Attention Module)

  • 处理过程:

  • 输入特征 ????2:输入特征首先通过空间上的归一化操作(Pixel Normalization),这一步旨在对每个像素点进行归一化处理,消除空间维度上的信息偏差。

  • 空间重要性权重计算:类似通道注意力模块,空间注意力模块根据每个像素点的特征计算权重,公式为 ????????=????????∑????????????,其中 ????????是第 ????个像素点的特征值。

  • 加权操作:计算得到的空间权重乘以原始输入特征图,调整每个像素的权重,突出空间上重要的区域。

  • 激活函数:通过 Sigmoid 激活函数,将计算出的空间权重压缩到 [0,1] 范围,生成最终的空间注意力特征 ???????? 。

  • 优势:

  • 增强空间信息的捕捉能力:空间注意力机制通过关注特定空间区域的特征,使得模型能够对图像中关键的局部信息进行关注,有助于提升目标检测、图像分割等任务的表现。

  • 聚焦关键区域:该模块能够动态调整图像中不同空间位置的权重,突出重要的区域信息,而抑制不相关的背景信息,尤其在检测小目标或局部细节时效果显著。

在这里插入图片描述

1.2【NAM】核心代码

import torch.nn as nn
import torch


class Channel_Att(nn.Module):
    def __init__(self, channels):
        super(Channel_Att, self).__init__()
        self.channels = channels

        self.bn2 = nn.BatchNorm2d(self.channels, affine=True)

    def forward(self, x):
        residual = x

        x = self.bn2(x)
        weight_bn = self.bn2.weight.data.abs() / torch.sum(self.bn2.weight.data.abs())
        x = x.permute(0, 2, 3, 1).contiguous()
        x = torch.mul(weight_bn, x)
        x = x.permute(0, 3, 1, 2).contiguous()

        x = torch.sigmoid(x) * residual  #

        return x


class NAMAttention(nn.Module):
    def __init__(self, channels):
        super(NAMAttention, self).__init__()
        self.Channel_Att = Channel_Att(channels)

    def forward(self, x):
        x_out1 = self.Channel_Att(x)

        return x_out1

二、添加【NAM】注意力机制

2.1STEP1

首先找到ultralytics/nn文件路径下新建一个Add-module的python文件包【这里注意一定是python文件包,新建后会自动生成_init_.py】,如果已经跟着我的教程建立过一次了可以省略此步骤,随后新建一个NAM.py文件并将上文中提到的注意力机制的代码全部粘贴到此文件中,如下图所示在这里插入图片描述

2.2STEP2

在STEP1中新建的_init_.py文件中导入增加改进模块的代码包如下图所示在这里插入图片描述

2.3STEP3

找到ultralytics/nn文件夹中的task.py文件,在其中按照下图添加在这里插入图片描述

2.4STEP4

定位到ultralytics/nn文件夹中的task.py文件中的def parse_model(d, ch, verbose=True): # model_dict, input_channels(3)函数添加如图代码,【如果不好定位可以直接ctrl+f搜索定位】

在这里插入图片描述

三、yaml文件与运行

3.1yaml文件

以下是添加【NAM】注意力机制在Backbone中的yaml文件,大家可以注释自行调节,效果以自己的数据集结果为准

# Ultralytics YOLO ????, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect

# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'
  # [depth, width, max_channels]
  n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPs
  s: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPs
  m: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPs
  l: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPs
  x: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs

# YOLO11n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 2, C3k2, [256, False, 0.25]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 2, C3k2, [512, False, 0.25]]
  - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
  - [-1, 2, C3k2, [512, True]]
  - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
  - [-1, 2, C3k2, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1,1,NAMAttention,[]]
  - [-1, 2, C2PSA, [1024]] # 10

# YOLO11n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 2, C3k2, [512, False]] # 13

  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 2, C3k2, [256, False]] # 16 (P3/8-small)


  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 14], 1, Concat, [1]] # cat head P4
  - [-1, 2, C3k2, [512, False]] # 19 (P4/16-medium)

  - [-1, 1, Conv, [512, 3, 2]]
  - [[-1, 11], 1, Concat, [1]] # cat head P5
  - [-1, 2, C3k2, [1024, True]] # 22 (P5/32-large)

  - [[17, 20, 23], 1, Detect, [nc]] # Detect(P3, P4, P5)

以上添加位置仅供参考,具体添加位置以及模块效果以自己的数据集结果为准

3.2运行成功截图

在这里插入图片描述

OK 以上就是添加【NAM】注意力机制的全部过程了,后续将持续更新尽情期待

在这里插入图片描述

上一篇:Dockerfile搭建环境案例


下一篇:docker实践与应用举例