学习资源站

03-添加CBAM注意力机制

YOLOv5改进系列(2)——添加CBAM注意力机制

🚀一、CBAM注意力机制原理

论文题目:《CBAM: Convolutional Block Attention Module》

论文地址:https://arxiv.org/pdf/1807.06521.pdf

代码实现:CBAM.PyTorch

1.1 CBAM方法介绍

CBAM注意力机制是由通道注意力机制(channel)空间注意力机制(spatial)组成。

在上一篇的SE中,我们学习了通道注意力机制(channel),而本篇的CBAM从通道channel 空间spatial 两个作用域出发,实现从通道到空间的顺序注意力结构。空间注意力可使神经网络更加关注图像中对分类起决定作用的像素区域而忽略无关紧要的区域,通道注意力则用于处理特征图通道的分配关系,同时对两个维度进行注意力分配增强了注意力机制对模型性能的提升效果。


1.2 通道注意力机制模块(CAM)

具体流程如下:
首先,将输入的特征图F(H×W×C)分别经过基于width和height的最大池化平均池化,对特征映射基于两个维度压缩,得到两个1×1×C的特征图

接着,再将最大池化平均池化的结果利用共享的全连接层(Shared MLP)进行处理,先通过一个全连接层下降通道数再通过另一个全连接恢复通道数

然后,将共享的全连接层所得到的结果进行相加再使用Sigmoid激活函数,进而生成最终的channel attention feature,即获得输入特征层每一个通道的权重(0~1之间)。

最后,将权重通过乘法逐通道加权到输入特征层上,生成Spatial attention模块需要的输入特征。

代码实现如下: 

  1. #(1)通道注意力机制
  2. class channel_attention(nn.Module):
  3. # 初始化, in_channel代表输入特征图的通道数, ratio代表第一个全连接的通道下降倍数
  4. def __init__(self, in_channel, ratio=4):
  5. # 继承父类初始化方法
  6. super(channel_attention, self).__init__()
  7. # 全局最大池化 [b,c,h,w]==>[b,c,1,1]
  8. self.max_pool = nn.AdaptiveMaxPool2d(output_size=1)
  9. # 全局平均池化 [b,c,h,w]==>[b,c,1,1]
  10. self.avg_pool = nn.AdaptiveAvgPool2d(output_size=1)
  11. # 第一个全连接层, 通道数下降4倍
  12. self.fc1 = nn.Linear(in_features=in_channel, out_features=in_channel//ratio, bias=False)
  13. # 第二个全连接层, 恢复通道数
  14. self.fc2 = nn.Linear(in_features=in_channel//ratio, out_features=in_channel, bias=False)
  15. # relu激活函数
  16. self.relu = nn.ReLU()
  17. # sigmoid激活函数
  18. self.sigmoid = nn.Sigmoid()
  19. # 前向传播
  20. def forward(self, inputs):
  21. # 获取输入特征图的shape
  22. b, c, h, w = inputs.shape
  23. # 输入图像做全局最大池化 [b,c,h,w]==>[b,c,1,1]
  24. max_pool = self.max_pool(inputs)
  25. # 输入图像的全局平均池化 [b,c,h,w]==>[b,c,1,1]
  26. avg_pool = self.avg_pool(inputs)
  27. # 调整池化结果的维度 [b,c,1,1]==>[b,c]
  28. max_pool = max_pool.view([b,c])
  29. avg_pool = avg_pool.view([b,c])
  30. # 第一个全连接层下降通道数 [b,c]==>[b,c//4]
  31. x_maxpool = self.fc1(max_pool)
  32. x_avgpool = self.fc1(avg_pool)
  33. # 激活函数
  34. x_maxpool = self.relu(x_maxpool)
  35. x_avgpool = self.relu(x_avgpool)
  36. # 第二个全连接层恢复通道数 [b,c//4]==>[b,c]
  37. x_maxpool = self.fc2(x_maxpool)
  38. x_avgpool = self.fc2(x_avgpool)
  39. # 将这两种池化结果相加 [b,c]==>[b,c]
  40. x = x_maxpool + x_avgpool
  41. # sigmoid函数权值归一化
  42. x = self.sigmoid(x)
  43. # 调整维度 [b,c]==>[b,c,1,1]
  44. x = x.view([b,c,1,1])
  45. # 输入特征图和通道权重相乘 [b,c,h,w]
  46. outputs = inputs * x
  47. return outputs

1.3 空间注意力机制模块(SAM)

具体流程如下:
将上面CAM模块输出的特征图F’作为本模块的输入特征图。

首先,对输入特征图在通道维度下做最大池化平均池化,将池化后的两张特征图在通道维度堆叠(concat)。

然后,经过一个7×7卷积(7×7比3×3效果要好)操作,降维为1个channel,即卷积核融合通道信息,特征图的shape从 [b,2,h,w] 变成 [b,1,h,w]

最后,将卷积后的结果经过 sigmoid 函数对特征图的空间权重归一化,再将输入特征图和权重相乘。

代码实现如下: 

  1. #(2)空间注意力机制
  2. class spatial_attention(nn.Module):
  3. # 初始化,卷积核大小为7*7
  4. def __init__(self, kernel_size=7):
  5. # 继承父类初始化方法
  6. super(spatial_attention, self).__init__()
  7. # 为了保持卷积前后的特征图shape相同,卷积时需要padding
  8. padding = kernel_size // 2
  9. # 7*7卷积融合通道信息 [b,2,h,w]==>[b,1,h,w]
  10. self.conv = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=kernel_size,
  11. padding=padding, bias=False)
  12. # sigmoid函数
  13. self.sigmoid = nn.Sigmoid()
  14. # 前向传播
  15. def forward(self, inputs):
  16. # 在通道维度上最大池化 [b,1,h,w] keepdim保留原有深度
  17. # 返回值是在某维度的最大值和对应的索引
  18. x_maxpool, _ = torch.max(inputs, dim=1, keepdim=True)
  19. # 在通道维度上平均池化 [b,1,h,w]
  20. x_avgpool = torch.mean(inputs, dim=1, keepdim=True)
  21. # 池化后的结果在通道维度上堆叠 [b,2,h,w]
  22. x = torch.cat([x_maxpool, x_avgpool], dim=1)
  23. # 卷积融合通道信息 [b,2,h,w]==>[b,1,h,w]
  24. x = self.conv(x)
  25. # 空间权重归一化
  26. x = self.sigmoid(x)
  27. # 输入特征图和空间权重相乘
  28. outputs = inputs * x
  29. return outputs

1.4 具体过程

CBAM的操作过程分为CAMSAM,给出一个中间特征图F\in R^{C\times H\times W}作为输入。

首先,对输入通道进行全局最大池化全局平均池化,将池化后的两个一维向量输入全连通层,相加生成一维信道注意M_{c}\in R^{C\times H\times W},然后将信道注意与输入元素相乘,得到信道注意调整特征图F’。

其次,F是由全球最大和平均池空间,和池生成的两个二维向量池拼接和卷积最终生成二维空间关注M_{s}\in R^{C\times H\times W},并将空间注意力与F的元素,如图2所示。注意过程可以用以下公式(1)和公式(2)来描述。

其中,⊗表示对应的元素乘法,在乘法操作前,需要分别根据空间维度和信道维度来广播信道注意和空间注意。通道注意方程为:

 空间注意序列是:

CBAM模块结构如下: 


🚀二、添加CBAM注意力机制方法(单独加)

2.1 添加顺序 

(1)models/common.py    -->  加入新增的网络结构

(2)     models/yolo.py       -->  设定网络结构的传参细节,将CBAM类名加入其中。(当新的自定义模块中存在输入输出维度时,要使用qw调整输出维度)
(3) models/yolov5*.yaml  -->  新建一个文件夹,如yolov5s_CBAM.yaml,修改现有模型结构配置文件。(当引入新的层时,要修改后续的结构中的from参数)
(4)         train.py                -->  修改‘--cfg’默认参数,训练时指定模型结构配置文件 


2.2 具体添加步骤 

第①步:在common.py中添加CBAM模块

将下面的CBAM代码复制粘贴到common.py文件的末尾

  1. # CBAM
  2. class ChannelAttention(nn.Module):
  3. def __init__(self, in_planes, ratio=16):
  4. super(ChannelAttention, self).__init__()
  5. self.avg_pool = nn.AdaptiveAvgPool2d(1)
  6. self.max_pool = nn.AdaptiveMaxPool2d(1)
  7. self.f1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False)
  8. self.relu = nn.ReLU()
  9. self.f2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False)
  10. self.sigmoid = nn.Sigmoid()
  11. def forward(self, x):
  12. avg_out = self.f2(self.relu(self.f1(self.avg_pool(x))))
  13. max_out = self.f2(self.relu(self.f1(self.max_pool(x))))
  14. out = self.sigmoid(avg_out + max_out)
  15. return out
  16. class SpatialAttention(nn.Module):
  17. def __init__(self, kernel_size=7):
  18. super(SpatialAttention, self).__init__()
  19. assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
  20. padding = 3 if kernel_size == 7 else 1
  21. # (特征图的大小-算子的size+2*padding)/步长+1
  22. self.conv = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
  23. self.sigmoid = nn.Sigmoid()
  24. def forward(self, x):
  25. # 1*h*w
  26. avg_out = torch.mean(x, dim=1, keepdim=True)
  27. max_out, _ = torch.max(x, dim=1, keepdim=True)
  28. x = torch.cat([avg_out, max_out], dim=1)
  29. #2*h*w
  30. x = self.conv(x)
  31. #1*h*w
  32. return self.sigmoid(x)
  33. class CBAM(nn.Module):
  34. def __init__(self, c1, c2, ratio=16, kernel_size=7): # ch_in, ch_out, number, shortcut, groups, expansion
  35. super(CBAM, self).__init__()
  36. self.channel_attention = ChannelAttention(c1, ratio)
  37. self.spatial_attention = SpatialAttention(kernel_size)
  38. def forward(self, x):
  39. out = self.channel_attention(x) * x
  40. # c*h*w
  41. # c*h*w * 1*h*w
  42. out = self.spatial_attention(out) * out
  43. return out

如下图所示:


第②步:在yolo.py文件里的parse_model函数加入类名

首先找到yolo.py里面parse_model函数的这一行

  然后把CBAM添加到这个注册表里面


第③步:创建自定义的yaml文件 

 首先在models文件夹下复制yolov5s.yaml 文件,粘贴并重命名为 yolov5s_CBAM.yaml 

 接着修改  yolov5s_CBAM.yaml  ,将CBAM模块加到我们想添加的位置。

注意力机制可以添加在backbone,Neck,Head等部分, 常见的有两种:一是在主干的 SPPF 前添加一层二是将Backbone中的C3全部替换

在这里我是用第一种:将 [-1,1,CBAM,[1024]]添加到 SPPF 的上一层,下一节使用第二种。即下图中所示位置:

 同样的下面的head也得修改,p4,p5以及最后detect的总层数都得+1

 这里我们要把后面两个Concat的from系数分别由[ − 1 , 14 ] , [ − 1 , 10 ]改为[ − 1 , 15 ] [ − 1 , 11 ]。然后将Detect原始的from系数[ 17 , 20 , 23 ]要改为[ 18 , 21 , 24 ]


第④步:验证是否加入成功

yolo.py 文件里面配置改为我们刚才自定义的yolov5s_CBAM.yaml 

 然后运行yolo.py 

  找到CBAM这一层,就说明我们添加成功啦!


第⑤步:修改train.py中 ‘--cfg’默认参数

我们先找到 train.py 文件的parse_opt函数,然后将第二行‘--cfg’ default改为'models/yolov5s_CBAM.yaml',然后就可以开始训练啦~


🚀三、添加C3_CBAM注意力机制方法(在C3模块中添加)

上面是单独加注意力层,接下来的方法是在C3模块中加入注意力层。

刚才也提到了,这个策略是CBAM注意力机制添加到Bottleneck,替换Backbone中的所有C3模块。

(因为步骤和上面相同,所以接下来只放重要步骤噢~) 

第①步:在common.py中添加CBAMBottleneck和C3_CBAM模块

将下面的代码复制粘贴到common.py文件的末尾

  1. # CBAM
  2. class ChannelAttention(nn.Module):
  3. def __init__(self, in_planes, ratio=16):
  4. super(ChannelAttention, self).__init__()
  5. self.avg_pool = nn.AdaptiveAvgPool2d(1)
  6. self.max_pool = nn.AdaptiveMaxPool2d(1)
  7. self.f1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False)
  8. self.relu = nn.ReLU()
  9. self.f2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False)
  10. self.sigmoid = nn.Sigmoid()
  11. def forward(self, x):
  12. avg_out = self.f2(self.relu(self.f1(self.avg_pool(x))))
  13. max_out = self.f2(self.relu(self.f1(self.max_pool(x))))
  14. out = self.sigmoid(avg_out + max_out)
  15. return out
  16. class SpatialAttention(nn.Module):
  17. def __init__(self, kernel_size=7):
  18. super(SpatialAttention, self).__init__()
  19. assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
  20. padding = 3 if kernel_size == 7 else 1
  21. # (特征图的大小-算子的size+2*padding)/步长+1
  22. self.conv = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
  23. self.sigmoid = nn.Sigmoid()
  24. def forward(self, x):
  25. # 1*h*w
  26. avg_out = torch.mean(x, dim=1, keepdim=True)
  27. max_out, _ = torch.max(x, dim=1, keepdim=True)
  28. x = torch.cat([avg_out, max_out], dim=1)
  29. #2*h*w
  30. x = self.conv(x)
  31. #1*h*w
  32. return self.sigmoid(x)
  33. class CBAMBottleneck(nn.Module):
  34. # ch_in, ch_out, shortcut, groups, expansion, ratio, kernel_size
  35. def __init__(self, c1, c2, shortcut=True, g=1, e=0.5, ratio=16, kernel_size=7):
  36. super(CBAMBottleneck, self).__init__()
  37. c_ = int(c2 * e) # hidden channels
  38. self.cv1 = Conv(c1, c_, 1, 1)
  39. self.cv2 = Conv(c_, c2, 3, 1, g=g)
  40. self.add = shortcut and c1 == c2
  41. # 加入CBAM模块
  42. self.channel_attention = ChannelAttention(c2, ratio)
  43. self.spatial_attention = SpatialAttention(kernel_size)
  44. def forward(self, x):
  45. # 考虑加入CBAM模块的位置:bottleneck模块刚开始时、bottleneck模块中shortcut之前,这里选择在shortcut之前
  46. x2 = self.cv2(self.cv1(x)) # x和x2的channel数相同
  47. # 在bottleneck模块中shortcut之前加入CBAM模块
  48. out = self.channel_attention(x2) * x2
  49. # print('outchannels:{}'.format(out.shape))
  50. out = self.spatial_attention(out) * out
  51. return x + out if self.add else out
  52. class C3_CBAM(C3):
  53. # C3 module with CBAMBottleneck()
  54. def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):
  55. super().__init__(c1, c2, n, shortcut, g, e)
  56. c_ = int(c2 * e) # hidden channels
  57. self.m = nn.Sequential(*(CBAMBottleneck(c_, c_, shortcut, g, e=1.0) for _ in range(n)))

第②步:在yolo.py文件里的parse_model函数加入类名

yolo.pyparse_model函数中,加入CBAMBottleneck, C3_CBAM两个模块


第③步:创建自定义的yaml文件 

按照上面的步骤创建yolov5s_C3_CBAM.yaml文件,替换4个C3模块

  1. # YOLOv5 🚀 by Ultralytics, GPL-3.0 license
  2. # Parameters
  3. nc: 80 # number of classes
  4. depth_multiple: 0.33 # model depth multiple
  5. width_multiple: 0.50 # layer channel multiple
  6. anchors:
  7. - [10,13, 16,30, 33,23] # P3/8
  8. - [30,61, 62,45, 59,119] # P4/16
  9. - [116,90, 156,198, 373,326] # P5/32
  10. # YOLOv5 v6.0 backbone
  11. backbone:
  12. # [from, number, module, args]
  13. [[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2
  14. [-1, 1, Conv, [128, 3, 2]], # 1-P2/4
  15. [-1, 3, C3_CBAM, [128]],
  16. [-1, 1, Conv, [256, 3, 2]], # 3-P3/8
  17. [-1, 6, C3_CBAM, [256]],
  18. [-1, 1, Conv, [512, 3, 2]], # 5-P4/16
  19. [-1, 3, C3_CBAM, [512]],
  20. [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
  21. [-1, 3, C3_CBAM, [1024]],
  22. [-1, 1, SPPF, [1024, 5]], # 9
  23. ]
  24. # YOLOv5 v6.0 head
  25. head:
  26. [[-1, 1, Conv, [512, 1, 1]],
  27. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  28. [[-1, 6], 1, Concat, [1]], # cat backbone P4
  29. [-1, 3, C3, [512, False]], # 13
  30. [-1, 1, Conv, [256, 1, 1]],
  31. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  32. [[-1, 4], 1, Concat, [1]], # cat backbone P3
  33. [-1, 3, C3, [256, False]], # 17 (P3/8-small)
  34. [-1, 1, Conv, [256, 3, 2]],
  35. [[-1, 14], 1, Concat, [1]], # cat head P4
  36. [-1, 3, C3, [512, False]], # 20 (P4/16-medium)
  37. [-1, 1, Conv, [512, 3, 2]],
  38. [[-1, 10], 1, Concat, [1]], # cat head P5
  39. [-1, 3, C3, [1024, False]], # 23 (P5/32-large)
  40. [[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
  41. ]

第④步:验证是否加入成功

yolo.py 文件里面配置改为我们刚才自定义的yolov5s_C3_CBAM.yaml,然后运行

这样就OK啦~


第⑤步:修改train.py中 ‘--cfg’默认参数

接下来的训练就和上面一样,不再叙述啦~

完结~撒花✿✿ヽ(°▽°)ノ✿


PS:加入不同的位置效果不同,这两个我各训练100轮看了下效果,对于我的数据集来说,第2种比第1种mAP增加0.009。