学习资源站

06-替换主干网络之 MobileNetV3_使用mobilenetv3改进yolov5

YOLOv5改进系列(5)——替换主干网络之 MobileNetV3


 🚀 一、MobileNetV3原理 

1.1 MobileNetV3简介

MobileNetV3,是谷歌在2019年3月21日提出的轻量化网络架构,在前两个版本的基础上,加入神经网络架构搜索(NAS)和h-swish激活函数,并引入SE通道注意力机制,性能和速度都表现优异,受到学术界和工业界的追捧。

引用大佬的描述:MobileNet V3 = MobileNet v2 + SE结构 + hard-swish activation +网络结构头尾微调

MobileNetV1&MobileNetV2&MobileNetV3总结

MobileNetV1 MobileNetV2 MobileNetV3
  • 标准卷积改为深度可分离卷积,降低计算量;
  • ReLU改为ReLU6
  • 引入Width Multiplier(α)Resolution Multiplier(ρ),调节模型的宽度(卷积核个数)和图像分辨率;
  • 采用线性瓶颈层:将深度可分离卷积中的1×1卷积后的ReLU替换成线性激活函数
  • 采用反向残差结构:
    • 引入Expansion layer,在进行深度分离卷积之前首先使用1×1卷积进行升维
    • 引入Shortcut结构,在升维的1×1卷积之前与深度可分离卷积中的1×1卷积之后进行shortcut连接
  • 采用增加了SE机制的Bottleneck模块结构;
  • 使用了一种新的激活函数h-swish(x)替代MobileNetV2中的ReLU6激活函数;
  • 网络结构搜索中,结合两种技术:资源受限的NAS(platform-aware NAS)NetAdapt
  • 修改了MobileNetV2网络端部最后阶段

1.2 MobileNetV3相关技术

(1)引入MobileNetV1的深度可分离卷积
(2)引入MobileNetV2的具有线性瓶颈的倒残差结构
(3)引入基于squeeze and excitation结构的轻量级注意力模型(SE)
(4)使用了一种新的激活函数h-swish(x)
(5)网络结构搜索中,结合两种技术:资源受限的NAS(platform-aware NAS)与NetAdapt
(6)修改了MobileNetV2网络端部最后阶段

更多介绍,还是看上面的链接吧~


🚀 二、YOLOv5结合MobileNetV3_small

2.1 添加顺序 

之前在讲添加注意力机制时我们就介绍过改进网络的顺序,替换主干网络也是大同小异的。
(1)models/common.py     -->  加入新增的网络结构

(2)     models/yolo.py        -->  设定网络结构的传参细节,将MobileNetV3类名加入其中。(当新的自定义模块中存在输入输出维度时,要使用qw调整输出维度)
(3) models/yolov5*.yaml    -->  修改现有模型结构配置文件

  • 当引入新的层时,要修改后续的结构中的from参数
  • 当仅替换主千网络时,要注意特征图的变换,/8,/16,/32

(4)         train.py                -->  修改‘--cfg’默认参数,训练时指定模型结构配置文件


2.2 具体添加步骤  

第①步:在common.py中添加MobileNetV3模块

将以下代码复制粘贴到common.py文件的末尾

  1. # Mobilenetv3Small
  2. # ——————MobileNetV3——————
  3. class h_sigmoid(nn.Module):
  4. def __init__(self, inplace=True):
  5. super(h_sigmoid, self).__init__()
  6. self.relu = nn.ReLU6(inplace=inplace)
  7. def forward(self, x):
  8. return self.relu(x + 3) / 6
  9. class h_swish(nn.Module):
  10. def __init__(self, inplace=True):
  11. super(h_swish, self).__init__()
  12. self.sigmoid = h_sigmoid(inplace=inplace)
  13. def forward(self, x):
  14. return x * self.sigmoid(x)
  15. class SELayer(nn.Module):
  16. def __init__(self, channel, reduction=4):
  17. super(SELayer, self).__init__()
  18. # Squeeze操作
  19. self.avg_pool = nn.AdaptiveAvgPool2d(1)
  20. # Excitation操作(FC+ReLU+FC+Sigmoid)
  21. self.fc = nn.Sequential(
  22. nn.Linear(channel, channel // reduction),
  23. nn.ReLU(inplace=True),
  24. nn.Linear(channel // reduction, channel),
  25. h_sigmoid()
  26. )
  27. def forward(self, x):
  28. b, c, _, _ = x.size()
  29. y = self.avg_pool(x)
  30. y = y.view(b, c)
  31. y = self.fc(y).view(b, c, 1, 1) # 学习到的每一channel的权重
  32. return x * y
  33. class conv_bn_hswish(nn.Module):
  34. """
  35. This equals to
  36. def conv_3x3_bn(inp, oup, stride):
  37. return nn.Sequential(
  38. nn.Conv2d(inp, oup, 3, stride, 1, bias=False),
  39. nn.BatchNorm2d(oup),
  40. h_swish()
  41. )
  42. """
  43. def __init__(self, c1, c2, stride):
  44. super(conv_bn_hswish, self).__init__()
  45. self.conv = nn.Conv2d(c1, c2, 3, stride, 1, bias=False)
  46. self.bn = nn.BatchNorm2d(c2)
  47. self.act = h_swish()
  48. def forward(self, x):
  49. return self.act(self.bn(self.conv(x)))
  50. def fuseforward(self, x):
  51. return self.act(self.conv(x))
  52. class MobileNetV3(nn.Module):
  53. def __init__(self, inp, oup, hidden_dim, kernel_size, stride, use_se, use_hs):
  54. super(MobileNetV3, self).__init__()
  55. assert stride in [1, 2]
  56. self.identity = stride == 1 and inp == oup
  57. # 输入通道数=扩张通道数 则不进行通道扩张
  58. if inp == hidden_dim:
  59. self.conv = nn.Sequential(
  60. # dw
  61. nn.Conv2d(hidden_dim, hidden_dim, kernel_size, stride, (kernel_size - 1) // 2, groups=hidden_dim,
  62. bias=False),
  63. nn.BatchNorm2d(hidden_dim),
  64. h_swish() if use_hs else nn.ReLU(inplace=True),
  65. # Squeeze-and-Excite
  66. SELayer(hidden_dim) if use_se else nn.Sequential(),
  67. # pw-linear
  68. nn.Conv2d(hidden_dim, oup, 1, 1, 0, bias=False),
  69. nn.BatchNorm2d(oup),
  70. )
  71. else:
  72. # 否则 先进行通道扩张
  73. self.conv = nn.Sequential(
  74. # pw
  75. nn.Conv2d(inp, hidden_dim, 1, 1, 0, bias=False),
  76. nn.BatchNorm2d(hidden_dim),
  77. h_swish() if use_hs else nn.ReLU(inplace=True),
  78. # dw
  79. nn.Conv2d(hidden_dim, hidden_dim, kernel_size, stride, (kernel_size - 1) // 2, groups=hidden_dim,
  80. bias=False),
  81. nn.BatchNorm2d(hidden_dim),
  82. # Squeeze-and-Excite
  83. SELayer(hidden_dim) if use_se else nn.Sequential(),
  84. h_swish() if use_hs else nn.ReLU(inplace=True),
  85. # pw-linear
  86. nn.Conv2d(hidden_dim, oup, 1, 1, 0, bias=False),
  87. nn.BatchNorm2d(oup),
  88. )
  89. def forward(self, x):
  90. y = self.conv(x)
  91. if self.identity:
  92. return x + y
  93. else:
  94. return y

如下图所示:


第②步:在yolo.py文件里的parse_model函数加入类名

首先找到yolo.py里面parse_model函数的这一行

加入h_sigmoidh_swishSELayerconv_bn_hswishMobileNetV3五个模块


第③步:创建自定义的yaml文件  

 首先在models文件夹下复制yolov5s.yaml 文件,粘贴并重命名为 yolov5s_MobileNetv3.yaml 

 然后根据MobileNetv3的网络结构来修改配置文件。

根据网络结构我们可以看出MobileNetV3模块包含六个参数[out_ch, hidden_ch, kernel_size, stride, use_se, use_hs]:

  • out_ch:   输出通道
  • hidden_ch:   表示在Inverted residuals中的扩张通道数
  • kernel_size:   卷积核大小
  • stride:   步长
  • use_se:  表示是否使用 SELayer,使用了是1,不使用是0
  • use_hs:  表示使用 h_swish 还是 ReLU,使用h_swish是1,使用 ReLU是0

修改的时候,需要注意/8,/16,/32等位置特征图的变换

同样的,head部分这几个concat的层也要做修改:

 yaml文件修改后代码如下:

  1. # YOLOv5 🚀 by Ultralytics, GPL-3.0 license
  2. # Parameters
  3. nc: 80 # number of classes
  4. depth_multiple: 1.0 # model depth multiple
  5. width_multiple: 1.0 # layer channel multiple
  6. anchors:
  7. - [10,13, 16,30, 33,23] # P3/8
  8. - [30,61, 62,45, 59,119] # P4/16
  9. - [116,90, 156,198, 373,326] # P5/32
  10. # Mobilenetv3-small backbone
  11. # MobileNetV3_InvertedResidual [out_ch, hid_ch, k_s, stride, SE, HardSwish]
  12. backbone:
  13. # [from, number, module, args]
  14. [[-1, 1, conv_bn_hswish, [16, 2]], # 0-p1/2 320*320
  15. [-1, 1, MobileNetV3, [16, 16, 3, 2, 1, 0]], # 1-p2/4 160*160
  16. [-1, 1, MobileNetV3, [24, 72, 3, 2, 0, 0]], # 2-p3/8 80*80
  17. [-1, 1, MobileNetV3, [24, 88, 3, 1, 0, 0]], # 3 80*80
  18. [-1, 1, MobileNetV3, [40, 96, 5, 2, 1, 1]], # 4-p4/16 40*40
  19. [-1, 1, MobileNetV3, [40, 240, 5, 1, 1, 1]], # 5 40*40
  20. [-1, 1, MobileNetV3, [40, 240, 5, 1, 1, 1]], # 6 40*40
  21. [-1, 1, MobileNetV3, [48, 120, 5, 1, 1, 1]], # 7 40*40
  22. [-1, 1, MobileNetV3, [48, 144, 5, 1, 1, 1]], # 8 40*40
  23. [-1, 1, MobileNetV3, [96, 288, 5, 2, 1, 1]], # 9-p5/32 20*20
  24. [-1, 1, MobileNetV3, [96, 576, 5, 1, 1, 1]], # 10 20*20
  25. [-1, 1, MobileNetV3, [96, 576, 5, 1, 1, 1]], # 11 20*20
  26. ]
  27. # YOLOv5 v6.0 head
  28. head:
  29. [[-1, 1, Conv, [96, 1, 1]], # 12 20*20
  30. [-1, 1, nn.Upsample, [None, 2, 'nearest']], # 13 40*40
  31. [[-1, 8], 1, Concat, [1]], # cat backbone P4 40*40
  32. [-1, 3, C3, [144, False]], # 15 40*40
  33. [-1, 1, Conv, [144, 1, 1]], # 16 40*40
  34. [-1, 1, nn.Upsample, [None, 2, 'nearest']],# 17 80*80
  35. [[-1, 3], 1, Concat, [1]], # cat backbone P3 80*80
  36. [-1, 3, C3, [168, False]], # 19 (P3/8-small) 80*80
  37. [-1, 1, Conv, [168, 3, 2]], # 20 40*40
  38. [[-1, 16], 1, Concat, [1]], # cat head P4 40*40
  39. [-1, 3, C3, [312, False]], # 22 (P4/16-medium) 40*40
  40. [-1, 1, Conv, [312, 3, 2]], # 23 20*20
  41. [[-1, 12], 1, Concat, [1]], # cat head P5 20*20
  42. [-1, 3, C3, [408, False]], # 25 (P5/32-large) 20*20
  43. [[19, 22, 25], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
  44. ]

第④步:验证是否加入成功

yolo.py 文件里面配置改为我们刚才自定义的yolov5s_MobileNetv3.yaml 

然后运行yolo.py  

我们和原始的yolov5s.py进行对比

可以看到替换主干网络为MobileNetV3之后层数变多了,可以学习到更多的特征;参数量由原来的700多万减少为500多万,大幅度减少了;GFLOPs由16.6变为12.2。


第⑤步:修改train.py中 ‘--cfg’默认参数

我们先找到 train.py 文件的parse_opt函数,然后将第二行‘--cfg’的 default改为'models/yolov5s_MobileNetv3.yaml ',然后就可以开始训练啦~


🚀 三、YOLOv5结合MobileNetV3_large

MobileNetV3_large和MobileNetV3_small区别在于yaml文件中head中concat连接不同,深度因子和宽度因子不同。

接下来我们就直接改动yaml的部分,其余参考上面步骤。

第③步:创建自定义的yaml文件  

  同样,首先在models文件夹下复制yolov5s.yaml 文件,粘贴并重命名为 yolov5s_MobileNetv3_large.yaml 

  然后根据MobileNetv3的网络结构来修改配置文件。

 修改后代码如下:

  1. # Parameters
  2. nc: 20 # number of classes
  3. depth_multiple: 1.0 # model depth multiple
  4. width_multiple: 1.0 # layer channel multiple
  5. anchors:
  6. - [10,13, 16,30, 33,23] # P3/8
  7. - [30,61, 62,45, 59,119] # P4/16
  8. - [116,90, 156,198, 373,326] # P5/32
  9. # YOLOv5 v6.0 backbone
  10. backbone:
  11. [[-1, 1, conv_bn_hswish, [16, 2]], # 0-p1/2
  12. [-1, 1, MobileNetV3, [ 16, 16, 3, 1, 0, 0]], # 1-p1/2
  13. [-1, 1, MobileNetV3, [ 24, 64, 3, 2, 0, 0]], # 2-p2/4
  14. [-1, 1, MobileNetV3, [ 24, 72, 3, 1, 0, 0]], # 3-p2/4
  15. [-1, 1, MobileNetV3, [ 40, 72, 5, 2, 1, 0]], # 4-p3/8
  16. [-1, 1, MobileNetV3, [ 40, 120, 5, 1, 1, 0]], # 5-p3/8
  17. [-1, 1, MobileNetV3, [ 40, 120, 5, 1, 1, 0]], # 6-p3/8
  18. [-1, 1, MobileNetV3, [ 80, 240, 3, 2, 0, 1]], # 7-p4/16
  19. [-1, 1, MobileNetV3, [ 80, 200, 3, 1, 0, 1]], # 8-p4/16
  20. [-1, 1, MobileNetV3, [ 80, 184, 3, 1, 0, 1]], # 9-p4/16
  21. [-1, 1, MobileNetV3, [ 80, 184, 3, 1, 0, 1]], # 10-p4/16
  22. [-1, 1, MobileNetV3, [112, 480, 3, 1, 1, 1]], # 11-p4/16
  23. [-1, 1, MobileNetV3, [112, 672, 3, 1, 1, 1]], # 12-p4/16
  24. [-1, 1, MobileNetV3, [160, 672, 5, 1, 1, 1]], # 13-p4/16
  25. [-1, 1, MobileNetV3, [160, 960, 5, 2, 1, 1]], # 14-p5/32 原672改为原算法960
  26. [-1, 1, MobileNetV3, [160, 960, 5, 1, 1, 1]], # 15-p5/32
  27. ]
  28. # YOLOv5 v6.0 head
  29. head:
  30. [ [ -1, 1, Conv, [ 256, 1, 1 ] ],
  31. [ -1, 1, nn.Upsample, [ None, 2, 'nearest' ] ],
  32. [ [ -1, 13], 1, Concat, [ 1 ] ], # cat backbone P4
  33. [ -1, 1, C3, [ 256, False ] ], # 13
  34. [ -1, 1, Conv, [ 128, 1, 1 ] ],
  35. [ -1, 1, nn.Upsample, [ None, 2, 'nearest' ] ],
  36. [ [ -1, 6 ], 1, Concat, [ 1 ] ], # cat backbone P3
  37. [ -1, 1, C3, [ 128, False ] ], # 17 (P3/8-small)
  38. [ -1, 1, Conv, [ 128, 3, 2 ] ],
  39. [ [ -1, 20 ], 1, Concat, [ 1 ] ], # cat head P4
  40. [ -1, 1, C3, [ 256, False ] ], # 20 (P4/16-medium)
  41. [ -1, 1, Conv, [ 256, 3, 2 ] ],
  42. [ [ -1, 16 ], 1, Concat, [ 1 ] ], # cat head P5
  43. [ -1, 1, C3, [ 512, False ] ], # 23 (P5/32-large)
  44. [ [ 23, 26, 29 ], 1, Detect, [ nc, anchors ] ], # Detect(P3, P4, P5)
  45. ]

网络运行结果:

我们可以看到MobileNetV3-large模型比MobileNetV3-small多了更多的MobileNet_Block结构,残差倒置结构中通道数维度也增大了许多,速度比YOLOv5s慢将近一半,但是参数变少,效果介乎MobileNetV3-small和YOLOv5s之间,可以作为模型对比,凸显自己模型优势。


PS:如果训练之后发现掉点纯属正常现象,因为轻量化网络在提速减少计算量的同时会降低精度。