学习资源站

RT-DETR改进策略【卷积层】2024最新轻量级自适应提取模块LAE即插即用保留局部信息和全局信息_全局特征提取模块2024-

RT-DETR改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息

一、本文介绍

本文记录的是 利用 轻量级自适应提取模块(LAE) 模块优化 RT-DETR 的目标检测网络模型 LAE (Lightweight Adaptive Extraction) 减少参数和计算成本 的同时,能够 提取更丰富语义信息的特征 ,克服了传统卷积方法 难以捕捉全局信息 的问题,并能更好地提取 ROI 特征。本文将其应用 RT-DETR 中,改进主要模块,更好地突出重要特征,从而提升模型对物体检测的能力。



二、轻量级自适应提取(LAE)模块介绍

2.1 设计出发点

  • 减少参数和计算成本 :在多尺度特征提取中,相较于传统卷积方法,旨在降低参数数量和计算成本,同时提取具有更丰富语义信息的特征。
  • 保留局部信息 :传统卷积过程中边缘和角落的像素信息易丢失,而这些局部信息在医学成像中对表示ROI目标和周围区域的隐含信息尤为重要。同时,特征图中相邻像素间存在信息差异,包含目标的像素信息熵高于相邻像素,所以希望在采样过程中保留信息含量高的像素。
  • 解决卷积局限性 :考虑到卷积操作的局部性难以捕捉全局信息且计算复杂,参考了Focus的概念,但因Focus的切片操作计算成本高不符合轻量化处理目标,所以在此基础上进行改进。

2.2 原理

  • 通过设计两个共享参数的并行分支,采用组卷积的概念高效地将输入映射到输出维度,利用N组组卷积使参数数量相比传统卷积减少到1/N。
  • 每个LAE单元实现四倍下采样(高度和宽度都缩小为原来的1/2)。在采样过程中,为缓解边缘信息丢失问题,先将特征图的高度和宽度信息保存到通道中,使特征图维度从四维(batch, channel, height, weight)变为五维(batch, channel, height, weight, n),其中‘n’表示采样因子。
  • 自适应提取路径通过平均池化和卷积交换信息,对特征图按四个相邻像素(如左上角四个像素)重新组合进行下采样,其权重通过softmax表示,维度也变为五维。在‘n’维度上,自适应权重与另一分支相结合,这种方式可理解为在从高分辨率到低分辨率信息的转换过程中,在通道层面隐式包含了全局信息。

在这里插入图片描述

2.3 结构

  • 由两个并行分支构成,包括自适应提取路径和轻量化提取路径。
  • 自适应提取路径 :通过平均池化和卷积交换信息,实现特征图按四个相邻像素重新组合下采样,并确定自适应权重。

在这里插入图片描述

  • 轻量化提取路径 :利用1×1卷积、平均池化、重排操作、Softmax乘法等操作,高效地将输入映射到输出维度。

在这里插入图片描述

2.4 优势

  • 参数少且易使用 :模块使用时无参数,便于即插即用式的迁移。
  • 保留信息丰富 :能有效保留局部信息和在采样过程中隐式包含全局信息,从而提取出具有更丰富语义信息的特征。

论文: https://arxiv.org/pdf/2408.14087
源码: https://github.com/VincentYuuuuuu/LSM-YOLO

三、LAE的实现代码

LAE 的实现代码如下:

import torch
import torch.nn as nn
from einops import rearrange
 
def autopad(k, p=None, d=1):  # kernel, padding, dilation
    """Pad to 'same' shape outputs."""
    if d > 1:
        k = d * (k - 1) + 1 if isinstance(k, int) else [d * (x - 1) + 1 for x in k]  # actual kernel-size
    if p is None:
        p = k // 2 if isinstance(k, int) else [x // 2 for x in k]  # auto-pad
    return p

class Conv(nn.Module):
    """Standard convolution with args(ch_in, ch_out, kernel, stride, padding, groups, dilation, activation)."""
    default_act = nn.SiLU()  # default activation
 
    def __init__(self, c1, c2, k=1, s=1, p=None, g=1, d=1, act=True):
        """Initialize Conv layer with given arguments including activation."""
        super().__init__()
        self.conv = nn.Conv2d(c1, c2, k, s, autopad(k, p, d), groups=g, dilation=d, bias=False)
        self.bn = nn.BatchNorm2d(c2)
        self.act = self.default_act if act is True else act if isinstance(act, nn.Module) else nn.Identity()
 
    def forward(self, x):
        """Apply convolution, batch normalization and activation to input tensor."""
        return self.act(self.bn(self.conv(x)))
 
    def forward_fuse(self, x):
        """Perform transposed convolution of 2D data."""
        return self.act(self.conv(x))

class LAE(nn.Module):
    # Light-weight Adaptive Extraction
    def __init__(self, ch, group=8) -> None:
        super().__init__()
 
        self.softmax = nn.Softmax(dim=-1)
        self.attention = nn.Sequential(
            nn.AvgPool2d(kernel_size=3, stride=1, padding=1),
            Conv(ch, ch, k=1)
        )
 
        self.ds_conv = Conv(ch, ch * 4, k=3, s=2, g=(ch // group))
 
    def forward(self, x):
        # bs, ch, 2*h, 2*w => bs, ch, h, w, 4
        att = rearrange(self.attention(x), 'bs ch (s1 h) (s2 w) -> bs ch h w (s1 s2)', s1=2, s2=2)
        att = self.softmax(att)
 
        # bs, 4 * ch, h, w => bs, ch, h, w, 4
        x = rearrange(self.ds_conv(x), 'bs (s ch) h w -> bs ch h w s', s=4)
        x = torch.sum(x * att, dim=-1)
        return x


四、创新模块

4.1 改进点⭐

模块改进方法 :加入 LAE模块 第五节讲解添加步骤 )。

LAE模块 添加后如下:

在这里插入图片描述


五、添加步骤

5.1 修改一

① 在 ultralytics/nn/ 目录下新建 AddModules 文件夹用于存放模块代码

② 在 AddModules 文件夹下新建 LAE.py ,将 第三节 中的代码粘贴到此处

在这里插入图片描述

5.2 修改二

AddModules 文件夹下新建 __init__.py (已有则不用新建),在文件内导入模块: from .LAE import *

在这里插入图片描述

5.3 修改三

ultralytics/nn/modules/tasks.py 文件中,需要在两处位置添加各模块类名称。

首先:导入模块

在这里插入图片描述

其次:在 parse_model函数 中添加如下代码:

在这里插入图片描述

elif m in {LAE}:
    c2 = ch[f]
    args = [c2, *args]

在这里插入图片描述


六、yaml模型文件

6.1 模型改进版本

此处以 ultralytics/cfg/models/rt-detr/rtdetr-l.yaml 为例,在同目录下创建一个用于自己数据集训练的模型文件 rtdetr-l-LAE.yaml

rtdetr-l.yaml 中的内容复制到 rtdetr-l-LAE.yaml 文件下,修改 nc 数量等于自己数据中目标的数量。

📌 模型的修改方法是将 骨干网络 中的 下采样模块替换成 LAE模块

# Ultralytics YOLO 🚀, AGPL-3.0 license
# RT-DETR-l object detection model with P3-P5 outputs. For details see https://docs.ultralytics.com/models/rtdetr

# Parameters
nc: 1 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n-cls.yaml' will call yolov8-cls.yaml with scale 'n'
  # [depth, width, max_channels]
  l: [1.00, 1.00, 1024]

backbone:
  # [from, repeats, module, args]
  - [-1, 1, HGStem, [32, 48]] # 0-P2/4
  - [-1, 6, HGBlock, [48, 128, 3]] # stage 1

  - [-1, 1, LAE, []] # 2-P3/8
  - [-1, 6, HGBlock, [96, 512, 3]] # stage 2

  - [-1, 1, LAE, []] # 4-P4/16
  - [-1, 6, HGBlock, [192, 1024, 5, True, False]] # cm, c2, k, light, shortcut
  - [-1, 6, HGBlock, [192, 1024, 5, True, True]]
  - [-1, 6, HGBlock, [192, 1024, 5, True, True]] # stage 3

  - [-1, 1, LAE, []] # 8-P5/32
  - [-1, 6, HGBlock, [384, 2048, 5, True, False]] # stage 4

head:
  - [-1, 1, Conv, [256, 1, 1, None, 1, 1, False]] # 10 input_proj.2
  - [-1, 1, AIFI, [1024, 8]]
  - [-1, 1, Conv, [256, 1, 1]] # 12, Y5, lateral_convs.0

  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [7, 1, Conv, [256, 1, 1, None, 1, 1, False]] # 14 input_proj.1
  - [[-2, -1], 1, Concat, [1]]
  - [-1, 3, RepC3, [256]] # 16, fpn_blocks.0
  - [-1, 1, Conv, [256, 1, 1]] # 17, Y4, lateral_convs.1

  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [3, 1, Conv, [256, 1, 1, None, 1, 1, False]] # 19 input_proj.0
  - [[-2, -1], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, RepC3, [256]] # X3 (21), fpn_blocks.1

  - [-1, 1, Conv, [256, 3, 2]] # 22, downsample_convs.0
  - [[-1, 17], 1, Concat, [1]] # cat Y4
  - [-1, 3, RepC3, [256]] # F4 (24), pan_blocks.0

  - [-1, 1, Conv, [256, 3, 2]] # 25, downsample_convs.1
  - [[-1, 12], 1, Concat, [1]] # cat Y5
  - [-1, 3, RepC3, [256]] # F5 (27), pan_blocks.1

  - [[21, 24, 27], 1, RTDETRDecoder, [nc]] # Detect(P3, P4, P5)


七、成功运行结果

打印网络模型可以看到 LAE 已经加入到模型中,并可以进行训练了。

rtdetr-l-LAE

rtdetr-l-LAE summary: 700 layers, 34,612,803 parameters, 34,612,803 gradients, 116.9 GFLOPs

                   from  n    params  module                                       arguments                     
  0                  -1  1     25248  ultralytics.nn.modules.block.HGStem          [3, 32, 48]                   
  1                  -1  6    155072  ultralytics.nn.modules.block.HGBlock         [48, 48, 128, 3, 6]           
  2                  -1  1     54528  ultralytics.nn.AddModules.LAE.LAE            [128]                         
  3                  -1  6    839296  ultralytics.nn.modules.block.HGBlock         [128, 96, 512, 3, 6]          
  4                  -1  1    414720  ultralytics.nn.AddModules.LAE.LAE            [512]                         
  5                  -1  6   1695360  ultralytics.nn.modules.block.HGBlock         [512, 192, 1024, 5, 6, True, False]
  6                  -1  6   2055808  ultralytics.nn.modules.block.HGBlock         [1024, 192, 1024, 5, 6, True, True]
  7                  -1  6   2055808  ultralytics.nn.modules.block.HGBlock         [1024, 192, 1024, 5, 6, True, True]
  8                  -1  1   1353728  ultralytics.nn.AddModules.LAE.LAE            [1024]                        
  9                  -1  6   6708480  ultralytics.nn.modules.block.HGBlock         [1024, 384, 2048, 5, 6, True, False]
 10                  -1  1    524800  ultralytics.nn.modules.conv.Conv             [2048, 256, 1, 1, None, 1, 1, False]
 11                  -1  1    789760  ultralytics.nn.modules.transformer.AIFI      [256, 1024, 8]                
 12                  -1  1     66048  ultralytics.nn.modules.conv.Conv             [256, 256, 1, 1]              
 13                  -1  1         0  torch.nn.modules.upsampling.Upsample         [None, 2, 'nearest']          
 14                   7  1    262656  ultralytics.nn.modules.conv.Conv             [1024, 256, 1, 1, None, 1, 1, False]
 15            [-2, -1]  1         0  ultralytics.nn.modules.conv.Concat           [1]                           
 16                  -1  3   2232320  ultralytics.nn.modules.block.RepC3           [512, 256, 3]                 
 17                  -1  1     66048  ultralytics.nn.modules.conv.Conv             [256, 256, 1, 1]              
 18                  -1  1         0  torch.nn.modules.upsampling.Upsample         [None, 2, 'nearest']          
 19                   3  1    131584  ultralytics.nn.modules.conv.Conv             [512, 256, 1, 1, None, 1, 1, False]
 20            [-2, -1]  1         0  ultralytics.nn.modules.conv.Concat           [1]                           
 21                  -1  3   2232320  ultralytics.nn.modules.block.RepC3           [512, 256, 3]                 
 22                  -1  1    590336  ultralytics.nn.modules.conv.Conv             [256, 256, 3, 2]              
 23            [-1, 17]  1         0  ultralytics.nn.modules.conv.Concat           [1]                           
 24                  -1  3   2232320  ultralytics.nn.modules.block.RepC3           [512, 256, 3]                 
 25                  -1  1    590336  ultralytics.nn.modules.conv.Conv             [256, 256, 3, 2]              
 26            [-1, 12]  1         0  ultralytics.nn.modules.conv.Concat           [1]                           
 27                  -1  3   2232320  ultralytics.nn.modules.block.RepC3           [512, 256, 3]                 
 28        [21, 24, 27]  1   7303907  ultralytics.nn.modules.head.RTDETRDecoder    [1, [256, 256, 256]]          
rtdetr-l-LAE summary: 700 layers, 34,612,803 parameters, 34,612,803 gradients, 116.9 GFLOPs