一、本文介绍
本文给大家带来的最新改进机制是最近这几天发布的改进机制 MFDS-DETR 提出的一种 HS-FPN 结构,其是一种为白细胞检测设计的网络结构,主要用于解决白细胞数据集中的多尺度挑战。它的基本原理包括两个关键部分: 特征选择模块 和 特征融合模块 , 在本文的下面均会有讲解,这个结构是非常新颖的。其可以起到 特征选择 的作用,非常适合轻量化的读者来使用,其存在二次创新和多次创新的机会,在近期内我会对其进行更加轻量化和精度更高的二次创新, 利用该结构参数量下降至181W,计算量降低至5.7GFLOPs, 本文结构为我独家复现,全网目前无第二份大家可以抓紧使用。
欢迎大家订阅我的专栏一起学习YOLO!
二、HS-FPN原理
论文地址: 论文官方链接
代码地址: 代码官方链接
2.1 HS-FPN的基本原理
HS-FPN(High-level Screening-feature Fusion Pyramid Networks) 是一种为白细胞检测设计的网络结构,主要用于解决白细胞数据集中的多尺度挑战。它的 基本原理 包括两个关键部分: 特征选择模块 和 特征融合模块 。
HS-FPN的结构 如下图所示,包括两个主要组成部分:
1. 特征选择模块: 该模块利用通道注意力(CA)和维度匹配(DM)机制对不同尺度的特征图进行筛选。通过池化操作(如全局平均池化和全局最大池化)和权重计算,该模块有效地提取了每个通道中的重要信息。
2. 特征融合模块: 该模块通过选择性特征融合(SFF)机制将筛选后的低级特征和高级特征结合起来。高级特征扩展后,通过双线性插值或转置卷积进行尺度调整,然后与低级特征融合,从而增强模型对白细胞特征的表达能力。
总的来说,HS-FPN通过这两个模块协同工作,有效地解决了白细胞检测中的多尺度问题,提高了检测的准确性和鲁棒性。
2.2 SSF模块
选择性特征融合(Selective Feature Fusion, SFF) 是HS-FPN网络中的一个关键 组件 ,它的主要作用是融合不同尺度的特征图。SFF通过使用 高级特征 作为权重来过滤低尺度特征中的重要信息。在这个过程中,高级特征经过转置卷积和双线性插值操作进行尺度调整,以匹配低尺度特征的尺寸。然后,利用高级特征作为注意力权重,筛选出低尺度特征中有用的信息。这种融合方法能够有效地结合高级特征的语义信息和低尺度特征的细节信息,从而提高模型在处理多尺度问题时的 性能 。
下图为大家展示了 SFF模块的框架结构:
给定一个输入高级特征
和一个输入低尺度特征
,高级特征首先使用一个大小为2,核大小为3x3的转置卷积(T-Conv)进行扩展,得到特征大小
。
然后,为了统一高级特征和低尺度特征的维度,作者使用双线性插值来向上或向下采样高级特征,得到特征
。接下来,使用CA模块将高级特征转换为相应的注意力权重,以过滤低尺度特征,在获得具有相同维度的特征后。
最后,将过滤后的低尺度特征与高级特征融合,以增强模型的特征表示,并得到
。方程(1)和(2)说明了特征选择的融合过程:
三、HS-FPN的核心代码
这里的CA对应着官方代码中的ChannelAttention,但是在早期的库里面它在官方里面已经集成了,导入过来可能名字重复从而导致使用的时候报错,我这里给改写成CA了,大家看官方代码的时候需要注意下。
- import torch
- import torch.nn as nn
- import torch.nn.functional as F
- __all__ = ['CA', 'multiply', 'Add']
- class Add(nn.Module):
- # Concatenate a list of tensors along dimension
- def __init__(self, ch=256):
- super().__init__()
- def forward(self, x):
- input1, input2 = x[0], x[1]
- x = input1 + input2
- return x
- class multiply(nn.Module):
- def __init__(self):
- super().__init__()
- def forward(self, x):
- x = x[0] * x[1]
- return x
- class CA(nn.Module):
- def __init__(self, in_planes, ratio = 4, flag=True):
- super(CA, self).__init__()
- self.avg_pool = nn.AdaptiveAvgPool2d(1)
- self.max_pool = nn.AdaptiveMaxPool2d(1)
- self.conv1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False)
- self.relu = nn.ReLU()
- self.conv2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False)
- self.flag = flag
- self.sigmoid = nn.Sigmoid()
- nn.init.xavier_uniform_(self.conv1.weight)
- nn.init.xavier_uniform_(self.conv2.weight)
- def forward(self, x):
- avg_out = self.conv2(self.relu(self.conv1(self.avg_pool(x))))
- max_out = self.conv2(self.relu(self.conv1(self.max_pool(x))))
- out = avg_out + max_out
- out = self.sigmoid(out) * x if self.flag else self.sigmoid(out)
- return out
- class FeatureSelectionModule(nn.Module):
- def __init__(self, in_chan, out_chan):
- super(FeatureSelectionModule, self).__init__()
- self.conv_atten = nn.Conv2d(in_chan, in_chan, kernel_size=1)
- self.group_norm1 = nn.GroupNorm(32, in_chan)
- self.sigmoid = nn.Sigmoid()
- self.conv = nn.Conv2d(in_chan, out_chan, kernel_size=1)
- self.group_norm2 = nn.GroupNorm(32, out_chan)
- nn.init.xavier_uniform_(self.conv_atten.weight)
- nn.init.xavier_uniform_(self.conv.weight)
- def forward(self, x):
- atten = self.sigmoid(self.group_norm1(self.conv_atten(F.avg_pool2d(x, x.size()[2:]))))
- feat = torch.mul(x, atten)
- x = x + feat
- feat = self.group_norm2(self.conv(x))
- return feat
- if __name__ == "__main__":
- # Generating Sample image
- image_size = (1, 64, 240, 240)
- image = torch.rand(*image_size)
- # Model
- mobilenet_v3 = FeatureSelectionModule(64, 64)
- out = mobilenet_v3(image)
- print(out.size())
四、手把手教你添加HS-FPN
4.1 修改一
第一还是建立文件,我们找到如下 ultralytics /nn文件夹下建立一个目录名字呢就是'Addmodules'文件夹( 用群内的文件的话已经有了无需新建) !然后在其内部建立一个新的py文件将核心代码复制粘贴进去即可。
4.2 修改二
第二步我们在该目录下创建一个新的py文件名字为'__init__.py'( 用群内的文件的话已经有了无需新建) ,然后在其内部导入我们的检测头如下图所示。
4.3 修改三
第三步我门中到如下文件'ultralytics/nn/tasks.py'进行导入和注册我们的模块( 用群内的文件的话已经有了无需重新导入直接开始第四步即可) !
4.4 修改四
按照我的添加在parse_model里添加即可。
4.5 修改五
按照我的添加在parse_model里添加即可。
- elif m in {'此处添加大家修改的对应机制即可'}:
- c2 = ch[f]
- args = [c2, *args]
- elif m is multiply:
- c2 = ch[f[0]]
- elif m is Add:
- c2 = ch[f[-1]]
到此就修改完成了,大家可以复制下面的yaml文件运行。
五、正式训练
5.1 yaml文件1
训练信息:YOLO11n-HSFPN summary: 336 layers, 1,851,379 parameters, 1,851,363 gradients, 5.7 GFLOPs
- # Ultralytics YOLO 🚀, AGPL-3.0 license
- # YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect
- # Parameters
- nc: 80 # number of classes
- scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'
- # [depth, width, max_channels]
- n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPs
- s: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPs
- m: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPs
- l: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPs
- x: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs
- # YOLO11n backbone
- backbone:
- # [from, repeats, module, args]
- - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
- - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
- - [-1, 2, C3k2, [256, False, 0.25]]
- - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
- - [-1, 2, C3k2, [512, False, 0.25]]
- - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
- - [-1, 2, C3k2, [512, True]]
- - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
- - [-1, 2, C3k2, [1024, True]]
- - [-1, 1, SPPF, [1024, 5]] # 9
- - [-1, 2, C2PSA, [1024]] # 10
- # YOLO11n head
- head:
- - [-1, 1, CA, []] # 11
- - [-1, 1, nn.Conv2d, [256, 1]] # 12
- - [-1, 2, C3k2, [256, False]] # 13 P5
- - [6, 1, CA, []]
- - [-1, 1, nn.Conv2d, [256, 1]] # 15
- - [12, 1, nn.ConvTranspose2d, [256, 3, 2, 1, 1]] # 16
- - [-1, 1, CA, [4, False]]
- - [[-1, 15], 1, multiply, []] # 18
- - [[-1, 16], 1, Add, []] # 19
- - [-1, 2, C3k2, [256, False]] # 20 P4
- - [4, 1, CA, []] # 21
- - [-1, 1, nn.Conv2d, [256, 1]] # 22
- - [16, 1, nn.ConvTranspose2d, [256, 3, 2, 1, 1]] # 23
- - [-1, 1, CA, [4, False]] # 24
- - [[-1, 22], 1, multiply, []] # 25
- - [[-1, 23], 1, Add, []] # 26
- - [-1, 2, C3k2, [256, True]] # 27 P3
- - [[27, 20, 13], 1, Detect, [nc]] # Det
5.2 yaml文件2
训练信息:YOLO11n-HSFPN-2 summary: 336 layers, 2,690,771 parameters, 2,690,755 gradients, 13.8 GFLOPs
- # Ultralytics YOLO 🚀, AGPL-3.0 license
- # YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect
- # Parameters
- nc: 80 # number of classes
- scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'
- # [depth, width, max_channels]
- n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPs
- s: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPs
- m: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPs
- l: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPs
- x: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs
- # YOLO11n backbone
- backbone:
- # [from, repeats, module, args]
- - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
- - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
- - [-1, 2, C3k2, [256, False, 0.25]]
- - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
- - [-1, 2, C3k2, [512, False, 0.25]]
- - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
- - [-1, 2, C3k2, [512, True]]
- - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
- - [-1, 2, C3k2, [1024, True]]
- - [-1, 1, SPPF, [1024, 5]] # 9
- - [-1, 2, C2PSA, [1024]] # 10
- # YOLO11n head
- head:
- - [-1, 1, CA, []] # 11
- - [-1, 1, nn.Conv2d, [256, 1]] # 12
- - [-1, 2, C3k2, [256, False]] # 13 P5
- - [6, 1, CA, []]
- - [-1, 1, nn.Conv2d, [256, 1]] # 15
- - [12, 1, nn.ConvTranspose2d, [256, 3, 2, 1, 1]] # 16
- - [-1, 1, CA, [4, False]]
- - [[-1, 15], 1, multiply, []] # 18
- - [[-1, 16], 1, Add, []] # 19
- - [-1, 2, C3k2, [512, False]] # 20 P4
- - [4, 1, CA, []] # 21
- - [-1, 1, nn.Conv2d, [512, 1]] # 22
- - [16, 1, nn.ConvTranspose2d, [512, 3, 2, 1, 1]] # 23
- - [-1, 1, CA, [4, False]] # 24
- - [[-1, 22], 1, multiply, []] # 25
- - [[-1, 23], 1, Add, []] # 26
- - [-1, 2, C3k2, [1024, True]] # 27 P3
- - [[27, 20, 13], 1, Detect, [nc]] # Det
5.3 训练代码
大家可以创建一个py文件将我给的代码复制粘贴进去,配置好自己的文件路径即可运行。
- import warnings
- warnings.filterwarnings('ignore')
- from ultralytics import YOLO
- if __name__ == '__main__':
- model = YOLO('模型配置文件')
- # 如何切换模型版本, 上面的ymal文件可以改为 yolov8s.yaml就是使用的v8s,
- # 类似某个改进的yaml文件名称为yolov8-XXX.yaml那么如果想使用其它版本就把上面的名称改为yolov8l-XXX.yaml即可(改的是上面YOLO中间的名字不是配置文件的)!
- # model.load('yolov8n.pt') # 是否加载预训练权重,科研不建议大家加载否则很难提升精度
- model.train(data=r"C:\Users\Administrator\PycharmProjects\yolov5-master\yolov5-master\Construction Site Safety.v30-raw-images_latestversion.yolov8\data.yaml",
- # 如果大家任务是其它的'ultralytics/cfg/default.yaml'找到这里修改task可以改成detect, segment, classify, pose
- cache=False,
- imgsz=640,
- epochs=150,
- single_cls=False, # 是否是单类别检测
- batch=16,
- close_mosaic=0,
- workers=0,
- device='0',
- optimizer='SGD', # using SGD
- # resume='runs/train/exp21/weights/last.pt', # 如过想续训就设置last.pt的地址
- amp=True, # 如果出现训练损失为Nan可以关闭amp
- project='runs/train',
- name='exp',
- )
5.4 训练过程截图
五、本文总结
到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的平均质量分98分,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~