学习资源站

YOLOv11改进-主干_Backbone篇-目标检测网络FasterNeT轻量化网络助力yolov11改进(提高FPS和检测效率)

一、本文介绍

本文给大家带来的改进机制是FasterNet网络,将其用来替换我们的 特征提取网络 ,其旨在 提高计算速度而不牺牲准确性 ,特别是在视觉任务中。它通过一种称为 部分卷积(PConv) 的新技术来减少冗余计算和内存访问。这种方法使得FasterNet在多种设备上运行速度比其他网络快得多,同时在各种视觉任务中保持高准确率。经过我的实验该主干网络确实能够涨点在大中小三种物体检测上,大家可以在 源代码 中进行修改版本的使用。 本文通过介绍其主要框架原理,然后教大家如何添加该网络结构到网络模型中。

(本文内容可根据yolov11的N、S、M、L、X进行二次缩放,轻量化更上一层)。


二、FasterNet原理

论文地址: 官方论文地址

代码地址: 官方代码地址


2.1 FasterNet的基本原理

FasterNet 是一种高效的 神经网络 架构,旨在 提高计算速度而不牺牲准确性 ,特别是在视觉任务中。它通过一种称为 部分卷积(PConv) 的新技术来减少冗余计算和内存访问。这种方法使得FasterNet在多种设备上运行速度比其他网络快得多,同时在各种视觉任务中保持高准确率。例如,FasterNet在ImageNet-1k数据集上的表现超过了其他模型,如 MobileViT-XXS ,展现了其在速度和准确度方面的优势。

FasterNet的基本原理可以总结为以下几点:

1. 部分卷积(PConv): FasterNet引入了部分卷积(PConv),这是一种新型的卷积方法,它通过只处理输入通道的一部分来减少计算量和内存访问。

2. 加速神经网络 : FasterNet利用PConv的优势,实现了在多种设备上比其他现有神经网络更快的运行速度,同时保持了较高的准确度。

下面为大家展示的是 FasterNet的整体架构

它包括四个层次化的阶段,每个阶段由一系列FasterNet块组成,并由嵌入或合并层开头。最后三层用于特征分类。在每个FasterNet块中,PConv层之后是两个点状卷积(PWConv)层。为了保持特征多样性并实现更低的延迟,仅在中间层之后放置了 归一化和激活层


2.2 部分卷积

部分卷积(PConv) 是一种 卷积神经网络中的操作 ,旨在提高计算效率。它通过 只在输入特征图的一部分上执行卷积操作 ,而非传统卷积操作中的全面应用。这样,PConv可以减少不必要的计算和内存访问,因为它忽略了输入中认为是冗余的部分。这种方法特别适合在资源有限的设备上运行 深度学习 模型,因为它可以在不牺牲太多性能的情况下,显著降低计算需求。

下面我为大家展示了FasterNet中的 部分卷积(PConv)与传统卷积和深度卷积/分组卷积的比较

PConv通过仅对输入通道的一小部分应用滤波器,同时保持其余通道不变,实现了快速和高效的特性提取。PConv的计算复杂度 (FLOPs) 低于常规卷积,但高于深度卷积/分组卷积,这样在减少计算资源的同时提高了运算性能。


2.3 加速神经网络

加速神经网络 主要通过优化计算路径、减少模型大小和复杂性、提高操作效率,以及使用高效的 硬件 实现等方式来降低模型的推理时间。这些方法包括 简化网络层 使用更快的激活函数 采用量化技术 浮点运算转换为整数运算 ,以及使用特殊的算法来减少内存访问次数等。通过这些策略,可以在不损害模型准确性的前提下,使神经网络能够更快地处理数据和做出预测。


三、FasterNet的核心代码

  1. # Copyright (c) Microsoft Corporation.
  2. # Licensed under the MIT License.
  3. import torch
  4. import torch.nn as nn
  5. from timm.models.layers import DropPath, trunc_normal_
  6. from functools import partial
  7. from typing import List
  8. from torch import Tensor
  9. import copy
  10. import os
  11. class Partial_conv3(nn.Module):
  12. def __init__(self, dim, n_div, forward):
  13. super().__init__()
  14. self.dim_conv3 = dim // n_div
  15. self.dim_untouched = dim - self.dim_conv3
  16. self.partial_conv3 = nn.Conv2d(self.dim_conv3, self.dim_conv3, 3, 1, 1, bias=False)
  17. if forward == 'slicing':
  18. self.forward = self.forward_slicing
  19. elif forward == 'split_cat':
  20. self.forward = self.forward_split_cat
  21. else:
  22. raise NotImplementedError
  23. def forward_slicing(self, x: Tensor) -> Tensor:
  24. # only for inference
  25. x = x.clone() # !!! Keep the original input intact for the residual connection later
  26. x[:, :self.dim_conv3, :, :] = self.partial_conv3(x[:, :self.dim_conv3, :, :])
  27. return x
  28. def forward_split_cat(self, x: Tensor) -> Tensor:
  29. # for training/inference
  30. x1, x2 = torch.split(x, [self.dim_conv3, self.dim_untouched], dim=1)
  31. x1 = self.partial_conv3(x1)
  32. x = torch.cat((x1, x2), 1)
  33. return x
  34. class MLPBlock(nn.Module):
  35. def __init__(self,
  36. dim,
  37. n_div,
  38. mlp_ratio,
  39. drop_path,
  40. layer_scale_init_value,
  41. act_layer,
  42. norm_layer,
  43. pconv_fw_type
  44. ):
  45. super().__init__()
  46. self.dim = dim
  47. self.mlp_ratio = mlp_ratio
  48. self.drop_path = DropPath(drop_path) if drop_path > 0. else nn.Identity()
  49. self.n_div = n_div
  50. mlp_hidden_dim = int(dim * mlp_ratio)
  51. mlp_layer: List[nn.Module] = [
  52. nn.Conv2d(dim, mlp_hidden_dim, 1, bias=False),
  53. norm_layer(mlp_hidden_dim),
  54. act_layer(),
  55. nn.Conv2d(mlp_hidden_dim, dim, 1, bias=False)
  56. ]
  57. self.mlp = nn.Sequential(*mlp_layer)
  58. self.spatial_mixing = Partial_conv3(
  59. dim,
  60. n_div,
  61. pconv_fw_type
  62. )
  63. if layer_scale_init_value > 0:
  64. self.layer_scale = nn.Parameter(layer_scale_init_value * torch.ones((dim)), requires_grad=True)
  65. self.forward = self.forward_layer_scale
  66. else:
  67. self.forward = self.forward
  68. def forward(self, x: Tensor) -> Tensor:
  69. shortcut = x
  70. x = self.spatial_mixing(x)
  71. x = shortcut + self.drop_path(self.mlp(x))
  72. return x
  73. def forward_layer_scale(self, x: Tensor) -> Tensor:
  74. shortcut = x
  75. x = self.spatial_mixing(x)
  76. x = shortcut + self.drop_path(
  77. self.layer_scale.unsqueeze(-1).unsqueeze(-1) * self.mlp(x))
  78. return x
  79. class BasicStage(nn.Module):
  80. def __init__(self,
  81. dim,
  82. depth,
  83. n_div,
  84. mlp_ratio,
  85. drop_path,
  86. layer_scale_init_value,
  87. norm_layer,
  88. act_layer,
  89. pconv_fw_type
  90. ):
  91. super().__init__()
  92. blocks_list = [
  93. MLPBlock(
  94. dim=dim,
  95. n_div=n_div,
  96. mlp_ratio=mlp_ratio,
  97. drop_path=drop_path[i],
  98. layer_scale_init_value=layer_scale_init_value,
  99. norm_layer=norm_layer,
  100. act_layer=act_layer,
  101. pconv_fw_type=pconv_fw_type
  102. )
  103. for i in range(depth)
  104. ]
  105. self.blocks = nn.Sequential(*blocks_list)
  106. def forward(self, x: Tensor) -> Tensor:
  107. x = self.blocks(x)
  108. return x
  109. class PatchEmbed(nn.Module):
  110. def __init__(self, patch_size, patch_stride, in_chans, embed_dim, norm_layer):
  111. super().__init__()
  112. self.proj = nn.Conv2d(in_chans, embed_dim, kernel_size=patch_size, stride=patch_stride, bias=False)
  113. if norm_layer is not None:
  114. self.norm = norm_layer(embed_dim)
  115. else:
  116. self.norm = nn.Identity()
  117. def forward(self, x: Tensor) -> Tensor:
  118. x = self.norm(self.proj(x))
  119. return x
  120. class PatchMerging(nn.Module):
  121. def __init__(self, patch_size2, patch_stride2, dim, norm_layer):
  122. super().__init__()
  123. self.reduction = nn.Conv2d(dim, 2 * dim, kernel_size=patch_size2, stride=patch_stride2, bias=False)
  124. if norm_layer is not None:
  125. self.norm = norm_layer(2 * dim)
  126. else:
  127. self.norm = nn.Identity()
  128. def forward(self, x: Tensor) -> Tensor:
  129. x = self.norm(self.reduction(x))
  130. return x
  131. class FasterNet(nn.Module):
  132. def __init__(self,
  133. in_chans=3,
  134. num_classes=1000,
  135. embed_dim=96,
  136. depths=(1, 2, 8, 2),
  137. mlp_ratio=2.,
  138. n_div=4,
  139. patch_size=4,
  140. patch_stride=4,
  141. patch_size2=2, # for subsequent layers
  142. patch_stride2=2,
  143. patch_norm=True,
  144. feature_dim=1280,
  145. drop_path_rate=0.1,
  146. layer_scale_init_value=0,
  147. norm_layer='BN',
  148. act_layer='RELU',
  149. fork_feat=True,
  150. init_cfg=None,
  151. pretrained=None,
  152. pconv_fw_type='split_cat',
  153. **kwargs):
  154. super().__init__()
  155. if norm_layer == 'BN':
  156. norm_layer = nn.BatchNorm2d
  157. else:
  158. raise NotImplementedError
  159. if act_layer == 'GELU':
  160. act_layer = nn.GELU
  161. elif act_layer == 'RELU':
  162. act_layer = partial(nn.ReLU, inplace=True)
  163. else:
  164. raise NotImplementedError
  165. if not fork_feat:
  166. self.num_classes = num_classes
  167. self.num_stages = len(depths)
  168. self.embed_dim = embed_dim
  169. self.patch_norm = patch_norm
  170. self.num_features = int(embed_dim * 2 ** (self.num_stages - 1))
  171. self.mlp_ratio = mlp_ratio
  172. self.depths = depths
  173. # split image into non-overlapping patches
  174. self.patch_embed = PatchEmbed(
  175. patch_size=patch_size,
  176. patch_stride=patch_stride,
  177. in_chans=in_chans,
  178. embed_dim=embed_dim,
  179. norm_layer=norm_layer if self.patch_norm else None
  180. )
  181. # stochastic depth decay rule
  182. dpr = [x.item()
  183. for x in torch.linspace(0, drop_path_rate, sum(depths))]
  184. # build layers
  185. stages_list = []
  186. for i_stage in range(self.num_stages):
  187. stage = BasicStage(dim=int(embed_dim * 2 ** i_stage),
  188. n_div=n_div,
  189. depth=depths[i_stage],
  190. mlp_ratio=self.mlp_ratio,
  191. drop_path=dpr[sum(depths[:i_stage]):sum(depths[:i_stage + 1])],
  192. layer_scale_init_value=layer_scale_init_value,
  193. norm_layer=norm_layer,
  194. act_layer=act_layer,
  195. pconv_fw_type=pconv_fw_type
  196. )
  197. stages_list.append(stage)
  198. # patch merging layer
  199. if i_stage < self.num_stages - 1:
  200. stages_list.append(
  201. PatchMerging(patch_size2=patch_size2,
  202. patch_stride2=patch_stride2,
  203. dim=int(embed_dim * 2 ** i_stage),
  204. norm_layer=norm_layer)
  205. )
  206. self.stages = nn.Sequential(*stages_list)
  207. self.fork_feat = fork_feat
  208. self.forward = self.forward_det
  209. # add a norm layer for each output
  210. self.out_indices = [0, 2, 4, 6]
  211. for i_emb, i_layer in enumerate(self.out_indices):
  212. if i_emb == 0 and os.environ.get('FORK_LAST3', None):
  213. raise NotImplementedError
  214. else:
  215. layer = norm_layer(int(embed_dim * 2 ** i_emb))
  216. layer_name = f'norm{i_layer}'
  217. self.add_module(layer_name, layer)
  218. self.apply(self.cls_init_weights)
  219. self.init_cfg = copy.deepcopy(init_cfg)
  220. if self.fork_feat and (self.init_cfg is not None or pretrained is not None):
  221. self.init_weights()
  222. self.width_list = [i.size(1) for i in self.forward(torch.randn(1, 3, 640, 640))]
  223. def cls_init_weights(self, m):
  224. if isinstance(m, nn.Linear):
  225. trunc_normal_(m.weight, std=.02)
  226. if isinstance(m, nn.Linear) and m.bias is not None:
  227. nn.init.constant_(m.bias, 0)
  228. elif isinstance(m, (nn.Conv1d, nn.Conv2d)):
  229. trunc_normal_(m.weight, std=.02)
  230. if m.bias is not None:
  231. nn.init.constant_(m.bias, 0)
  232. elif isinstance(m, (nn.LayerNorm, nn.GroupNorm)):
  233. nn.init.constant_(m.bias, 0)
  234. nn.init.constant_(m.weight, 1.0)
  235. def forward_det(self, x: Tensor) -> Tensor:
  236. # output the features of four stages for dense prediction
  237. x = self.patch_embed(x)
  238. outs = []
  239. for idx, stage in enumerate(self.stages):
  240. x = stage(x)
  241. if self.fork_feat and idx in self.out_indices:
  242. norm_layer = getattr(self, f'norm{idx}')
  243. x_out = norm_layer(x)
  244. outs.append(x_out)
  245. return outs
  246. if __name__ == "__main__":
  247. # Generating Sample image
  248. image_size = (1, 3, 640, 640)
  249. image = torch.rand(*image_size)
  250. # Model
  251. model = FasterNet()
  252. out = model(image)
  253. print(len(out))


四、手把手教你添加FasterNet机制

4.1 修改一

第一步还是建立文件,我们找到如下ultralytics/nn文件夹下建立一个目录名字呢就是'Addmodules'文件夹( 用群内的文件的话已经有了无需新建) !然后在其内部建立一个新的py文件将核心代码复制粘贴进去即可


4.2 修改二

第二步我们在该目录下创建一个新的py文件名字为'__init__.py'( 用群内的文件的话已经有了无需新建) ,然后在其内部导入我们的检测头如下图所示。


4.3 修改三

第三步我门中到如下文件'ultralytics/nn/tasks.py'进行导入和注册我们的模块( 用群内的文件的话已经有了无需重新导入直接开始第四步即可)

从今天开始以后的教程就都统一成这个样子了,因为我默认大家用了我群内的文件来进行修改!!


4.4 修改四

添加如下两行代码!!!


4.5 修改五

找到七百多行大概把具体看图片,按照图片来修改就行,添加红框内的部分,注意没有()只是函数名。

  1. elif m in {自行添加对应的模型即可,下面都是一样的}:
  2. m = m(*args)
  3. c2 = m.width_list # 返回通道列表
  4. backbone = True


4.6 修改六

下面的两个红框内都是需要改动的。

  1. if isinstance(c2, list):
  2. m_ = m
  3. m_.backbone = True
  4. else:
  5. m_ = nn.Sequential(*(m(*args) for _ in range(n))) if n > 1 else m(*args) # module
  6. t = str(m)[8:-2].replace('__main__.', '') # module type
  7. m.np = sum(x.numel() for x in m_.parameters()) # number params
  8. m_.i, m_.f, m_.type = i + 4 if backbone else i, f, t # attach index, 'from' index, type


4.7 修改七

如下的也需要修改,全部按照我的来。

代码如下把原先的代码替换了即可。

  1. if verbose:
  2. LOGGER.info(f'{i:>3}{str(f):>20}{n_:>3}{m.np:10.0f} {t:<45}{str(args):<30}') # print
  3. save.extend(x % (i + 4 if backbone else i) for x in ([f] if isinstance(f, int) else f) if x != -1) # append to savelist
  4. layers.append(m_)
  5. if i == 0:
  6. ch = []
  7. if isinstance(c2, list):
  8. ch.extend(c2)
  9. if len(c2) != 5:
  10. ch.insert(0, 0)
  11. else:
  12. ch.append(c2)


4.8 修改八

修改八和前面的都不太一样,需要修改前向传播中的一个部分, 已经离开了parse_model方法了。

可以在图片中开代码行数,没有离开task.py文件都是同一个文件。 同时这个部分有好几个前向传播都很相似,大家不要看错了, 是70多行左右的!!!,同时我后面提供了代码,大家直接复制粘贴即可,有时间我针对这里会出一个视频。

​​

代码如下->

  1. def _predict_once(self, x, profile=False, visualize=False, embed=None):
  2. """
  3. Perform a forward pass through the network.
  4. Args:
  5. x (torch.Tensor): The input tensor to the model.
  6. profile (bool): Print the computation time of each layer if True, defaults to False.
  7. visualize (bool): Save the feature maps of the model if True, defaults to False.
  8. embed (list, optional): A list of feature vectors/embeddings to return.
  9. Returns:
  10. (torch.Tensor): The last output of the model.
  11. """
  12. y, dt, embeddings = [], [], [] # outputs
  13. for m in self.model:
  14. if m.f != -1: # if not from previous layer
  15. x = y[m.f] if isinstance(m.f, int) else [x if j == -1 else y[j] for j in m.f] # from earlier layers
  16. if profile:
  17. self._profile_one_layer(m, x, dt)
  18. if hasattr(m, 'backbone'):
  19. x = m(x)
  20. if len(x) != 5: # 0 - 5
  21. x.insert(0, None)
  22. for index, i in enumerate(x):
  23. if index in self.save:
  24. y.append(i)
  25. else:
  26. y.append(None)
  27. x = x[-1] # 最后一个输出传给下一层
  28. else:
  29. x = m(x) # run
  30. y.append(x if m.i in self.save else None) # save output
  31. if visualize:
  32. feature_visualization(x, m.type, m.i, save_dir=visualize)
  33. if embed and m.i in embed:
  34. embeddings.append(nn.functional.adaptive_avg_pool2d(x, (1, 1)).squeeze(-1).squeeze(-1)) # flatten
  35. if m.i == max(embed):
  36. return torch.unbind(torch.cat(embeddings, 1), dim=0)
  37. return x

到这里就完成了修改部分,但是这里面细节很多,大家千万要注意不要替换多余的代码,导致报错,也不要拉下任何一部,都会导致运行失败,而且报错很难排查!!!很难排查!!!


注意!!! 额外的修改!

关注我的其实都知道,我大部分的修改都是一样的,这个网络需要额外的修改一步,就是s一个参数,将下面的s改为640!!!即可完美运行!!


打印计算量问题解决方案

我们找到如下文件'ultralytics/utils/torch_utils.py'按照如下的图片进行修改,否则容易打印不出来计算量。


注意事项!!!

如果大家在验证的时候报错形状不匹配的错误可以固定验证集的图片尺寸,方法如下 ->

找到下面这个文件ultralytics/ models /yolo/detect/train.py然后其中有一个类是DetectionTrainer class中的build_dataset函数中的一个参数rect=mode == 'val'改为rect=False


五、FasterNet的yaml文件

5.1 FasterNet的yaml文件

训练信息:YOLO11-FasterNet summary: 351 layers, 2,384,163 parameters, 2,384,147 gradients, 5.6 GFLOPs

使用说明: # 下面 [-1, 1, FasterNet, [0.25]] 参数位置的0.25是通道放缩的系数, YOLOv11N是0.25 YOLOv11S是0.5 YOLOv11M是1. YOLOv11l是1 YOLOv11是1.5大家根据自己训练的YOLO版本设定即可.

  1. # Ultralytics YOLO 🚀, AGPL-3.0 license
  2. # YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect
  3. # Parameters
  4. nc: 80 # number of classes
  5. scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'
  6. # [depth, width, max_channels]
  7. n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPs
  8. s: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPs
  9. m: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPs
  10. l: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPs
  11. x: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs
  12. # 下面 [-1, 1, FasterNet, [0.25]] 参数位置的0.25是通道放缩的系数, YOLOv11N是0.25 YOLOv11S是0.5 YOLOv11M是1. YOLOv11l是1 YOLOv111.5大家根据自己训练的YOLO版本设定即可.
  13. # YOLO11n backbone
  14. backbone:
  15. # [from, repeats, module, args]
  16. - [-1, 1, FasterNet, [0.25]] # 0-4 P1/2 这里是四层大家不要被yaml文件限制住了思维,不会画图进群看视频.
  17. - [-1, 1, SPPF, [1024, 5]] # 5
  18. - [-1, 2, C2PSA, [1024]] # 6
  19. # YOLO11n head
  20. head:
  21. - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  22. - [[-1, 3], 1, Concat, [1]] # cat backbone P4
  23. - [-1, 2, C3k2, [512, False]] # 9
  24. - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  25. - [[-1, 2], 1, Concat, [1]] # cat backbone P3
  26. - [-1, 2, C3k2, [256, False]] # 12 (P3/8-small)
  27. - [-1, 1, Conv, [256, 3, 2]]
  28. - [[-1, 9], 1, Concat, [1]] # cat head P4
  29. - [-1, 2, C3k2, [512, False]] # 15 (P4/16-medium)
  30. - [-1, 1, Conv, [512, 3, 2]]
  31. - [[-1, 6], 1, Concat, [1]] # cat head P5
  32. - [-1, 2, C3k2, [1024, True]] # 18 (P5/32-large)
  33. - [[12, 15, 18], 1, Detect, [nc]] # Detect(P3, P4, P5)


5.2 训练文件的代码

可以复制我的运行文件进行运行。

  1. import warnings
  2. warnings.filterwarnings('ignore')
  3. from ultralytics import YOLO
  4. if __name__ == '__main__':
  5. model = YOLO('yolov8-MLLA.yaml')
  6. # 如何切换模型版本, 上面的ymal文件可以改为 yolov8s.yaml就是使用的v8s,
  7. # 类似某个改进的yaml文件名称为yolov8-XXX.yaml那么如果想使用其它版本就把上面的名称改为yolov8l-XXX.yaml即可(改的是上面YOLO中间的名字不是配置文件的)!
  8. # model.load('yolov8n.pt') # 是否加载预训练权重,科研不建议大家加载否则很难提升精度
  9. model.train(data=r"C:\Users\Administrator\PycharmProjects\yolov5-master\yolov5-master\Construction Site Safety.v30-raw-images_latestversion.yolov8\data.yaml",
  10. # 如果大家任务是其它的'ultralytics/cfg/default.yaml'找到这里修改task可以改成detect, segment, classify, pose
  11. cache=False,
  12. imgsz=640,
  13. epochs=150,
  14. single_cls=False, # 是否是单类别检测
  15. batch=16,
  16. close_mosaic=0,
  17. workers=0,
  18. device='0',
  19. optimizer='SGD', # using SGD
  20. # resume='runs/train/exp21/weights/last.pt', # 如过想续训就设置last.pt的地址
  21. amp=True, # 如果出现训练损失为Nan可以关闭amp
  22. project='runs/train',
  23. name='exp',
  24. )


六、成功运行记录

下面是成功运行的截图,已经完成了有1个epochs的训练,图片太大截不全第2个epochs了。


七、本文总结

到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的平均质量分98分,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充 如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~

​​