学习资源站

19-更换Neck之AFPN(全新渐进特征金字塔_超越PAFPN_实测涨点)_yolov5改进afpn

YOLOv5改进系列(18)——更换Neck之AFPN(全新渐进特征金字塔|超越PAFPN|实测涨点)

🚀一、AFPN介绍  

1.1 简介

多尺度特征在目标检测任务中对具有尺度方差的目标进行编码时具有重要意义。多尺度特征提取的一种常见策略是采用经典的自上而下和自下而上的特征金字塔网络然而,这些方法遭受特征信息的丢失或退化,削弱了非相邻 Level 的融合效果。

本文使用了一种渐进特征金字塔网络AFPN来解决上述问题。在自下而上的特征提取过程中,首先通过组合两个具有不同分辨率的低层特征来启动融合过程。接着逐渐将高层特征纳入融合过程,最终融合主干网络的顶级特征。这种融合方式可以避免非相邻层次之间存在较大的语义差距

在此过程中,模型学习了空间滤波冲突信息来抑制不一致性的方法,针对有利用价值的信息保留后再加以组合自动地学习权重参数,以渐进的方式将低层特征与高层特征的语义信息和详细信息直接相互融合,避免了多级传输中的信息丢失或退化,提高特征尺度的不变性,并且引入的计算开销很小,实现简单。


1.2 提取多级特征 

AFPN框架首先从主干网络的每个特征层提取最后一层特征,产生一组不同尺度的特征,表示为{C2, C3, C4, C5}

接着将低层特征C2C3输入到特征金字塔网络中,进行一次特征融合,然后添加C4,和之前添加的C2、C3一起做特征融合,最后添加C5,和之前添加的层继续做特征融合。最后产生一组多尺度特征{P2, P3, P4, P5}

对于在Faster R-CNN框架上进行的实验,作者将Stride为2的卷积应用于P5,然后再应用Stride为1的卷积来生成P6,这确保了统一的输出。最后一组多尺度特征是{P2, P3, P4, P5, P6},对应的特征Stride为{4, 8, 16, 32, 64}个像素。


1.3 渐进架构

在主干网络自下而上的特征提取过程中,AFPN最初融合了低层特征,然后融合了深层特征,最后融合了最高层的特征,即最抽象的特征。

为了避免非相邻层次特征之间的语义差距大于相邻层次特征间的语义差距,导致的非相邻层次特征的融合效果较差问题,AFPN的架构采取渐进模式,每一层包含前一层的特征信息,这将使不同 Level 特征的语义信息在渐进融合过程中更加接近。

另外,为了对齐维度并为特征融合做准备,模型使用1×1卷积层双线性插值方法对特征进行上采样,并根据所需的下采样率使用不同的卷积核和步长来执行下采样

在特征融合之后,作者使用4个残差单元继续学习特征,这些残差单元类似于ResNet,每个残差单元包括2个3×3卷积。由于YOLO中只使用了3个 Level 的特征,因此没有8次上采样和8次下采样。


1.4 自适应空间融合

在多级特征融合过程中,作者利用ASFF为不同 Level 的特征分配不同的空间权重,与基于元素和或级联的多层次特征融合方法不同,其核心思想是自适应地学习各尺度特征映射融合的空间权重,通过学习权重参数的方式将不同层的特征融合到一起,可使网络自动学习过滤掉其他层的无用信息,保留有效信息,从而高效地融合特征。

适应空间特征融合ASFF(Adaptive Spatial Feature Fusion)结构图

        如上图所示,作者融合了3个层次的特征。让{x_{ij}}^{n->l}表示从 Level n到 Level l的位置(i,j)处的特征向量。结果特征向量表示为l,通过多级特征的自适应空间融合获得,并由特征向量的线性组合{x_{ij}}^{1->l}{x_{ij}}^{2->l}{x_{ij}}^{3->l}如下:


1.5 实验

(1)表I与MS-COCO VAL2017上不同特征金字塔网络的比较。

(2)表II与MS-COCO测试开发中不同特征金字塔网络的比较。

(3)表III 与其他两级目标探测器的比较。

(4)表IV AFPN对YOLOV5的贡献。

(5)表V 消融实验。


🚀二、更换AFPN的方法 

第①步:在common.py中添加AFPN模块

  1. class Upsample(nn.Module):
  2. """Applies convolution followed by upsampling."""
  3. # ---1.渐进架构部分(融合前的准备)--- #
  4. def __init__(self, c1, c2, scale_factor=2):
  5. super().__init__()
  6. # self.cv1 = Conv(c1, c2, 1)
  7. # self.upsample = nn.Upsample(scale_factor=scale_factor, mode='nearest') # or model='bilinear' non-deterministic
  8. if scale_factor == 2:
  9. self.cv1 = nn.ConvTranspose2d(c1, c2, 2, 2, 0, bias=True) # 如果下采样率为2,就用Stride为2的2×2卷积来实现2次下采样
  10. elif scale_factor == 4:
  11. self.cv1 = nn.ConvTranspose2d(c1, c2, 4, 4, 0, bias=True) # 如果下采样率为4,就用Stride为4的4×4卷积来实现4次下采样
  12. def forward(self, x):
  13. # return self.upsample(self.cv1(x))
  14. return self.cv1(x)
  15. # ---2.自适应空间融合(ASFF)--- #
  16. class ASFF2(nn.Module):
  17. """ASFF2 module for YOLO AFPN head https://arxiv.org/abs/2306.15988"""
  18. def __init__(self, c1, c2, level=0):
  19. super().__init__()
  20. c1_l, c1_h = c1[0], c1[1]
  21. self.level = level
  22. self.dim = c1_l, c1_h
  23. self.inter_dim = self.dim[self.level]
  24. compress_c = 8
  25. #如果是第0层
  26. if level == 0:
  27. # self.stride_level_1调整level-1出来的特征图,通道调整为和level-0出来的特征图一样大小
  28. self.stride_level_1 = Upsample(c1_h, self.inter_dim)
  29. #如果是第1层
  30. if level == 1:
  31. # self.stride_level_0通道调整为和level-1出来的特征图一样大小
  32. self.stride_level_0 = Conv(c1_l, self.inter_dim, 2, 2, 0) # stride=2 下采样为2倍
  33. # 两个卷积为了学习权重
  34. self.weight_level_0 = Conv(self.inter_dim, compress_c, 1, 1)
  35. self.weight_level_1 = Conv(self.inter_dim, compress_c, 1, 1)
  36. # 用于调整拼接后的两个权重的通道
  37. self.weights_levels = nn.Conv2d(compress_c * 2, 2, kernel_size=1, stride=1, padding=0)
  38. self.conv = Conv(self.inter_dim, self.inter_dim, 3, 1)
  39. def forward(self, x):
  40. x_level_0, x_level_1 = x[0], x[1]
  41. # 如果在第0层
  42. # level-0出来的特征图保持不变
  43. # 调整level-1的特征图,使得其channel、width、height与level-0一致
  44. if self.level == 0:
  45. level_0_resized = x_level_0
  46. level_1_resized = self.stride_level_1(x_level_1)
  47. # 如果在第1层,同上
  48. elif self.level == 1:
  49. level_0_resized = self.stride_level_0(x_level_0)
  50. level_1_resized = x_level_1
  51. # 将N*C*H*W的level-0特征图卷积得到权重,权重level_0_weight_v:N*256*H*W
  52. level_0_weight_v = self.weight_level_0(level_0_resized)
  53. level_1_weight_v = self.weight_level_1(level_1_resized)
  54. # 将各个权重矩阵按照通道拼接
  55. # levels_weight_v:N*3C*H*W
  56. levels_weight_v = torch.cat((level_0_weight_v, level_1_weight_v), 1)
  57. # 将拼接后的矩阵调整,每个通道对应着不同的level_0_resized,level_1_resized的权重
  58. levels_weight = self.weights_levels(levels_weight_v)
  59. # 在通道维度,对权重做归一化,也就是对于二通道tmp:tmp[0][0]+tmp[1][0]=1
  60. levels_weight = F.softmax(levels_weight, dim=1)
  61. # 将levels_weight各个通道分别乘level_0_resized level_1_resized
  62. # 点乘用到了广播机制
  63. fused_out_reduced = level_0_resized * levels_weight[:, 0:1] + level_1_resized * levels_weight[:, 1:2]
  64. return self.conv(fused_out_reduced)
  65. # ASFF3的运算流程同上
  66. class ASFF3(nn.Module):
  67. """ASFF3 module for YOLO AFPN head https://arxiv.org/abs/2306.15988"""
  68. def __init__(self, c1, c2, level=0):
  69. super().__init__()
  70. c1_l, c1_m, c1_h = c1[0], c1[1], c1[2]
  71. self.level = level
  72. self.dim = c1_l, c1_m, c1_h
  73. self.inter_dim = self.dim[self.level]
  74. compress_c = 8
  75. if level == 0:
  76. self.stride_level_1 = Upsample(c1_m, self.inter_dim)
  77. self.stride_level_2 = Upsample(c1_h, self.inter_dim, scale_factor=4)
  78. if level == 1:
  79. self.stride_level_0 = Conv(c1_l, self.inter_dim, 2, 2, 0) # downsample 2x
  80. self.stride_level_2 = Upsample(c1_h, self.inter_dim)
  81. if level == 2:
  82. self.stride_level_0 = Conv(c1_l, self.inter_dim, 4, 4, 0) # downsample 4x
  83. self.stride_level_1 = Conv(c1_m, self.inter_dim, 2, 2, 0) # downsample 2x
  84. self.weight_level_0 = Conv(self.inter_dim, compress_c, 1, 1)
  85. self.weight_level_1 = Conv(self.inter_dim, compress_c, 1, 1)
  86. self.weight_level_2 = Conv(self.inter_dim, compress_c, 1, 1)
  87. self.weights_levels = nn.Conv2d(compress_c * 3, 3, kernel_size=1, stride=1, padding=0)
  88. self.conv = Conv(self.inter_dim, self.inter_dim, 3, 1)
  89. def forward(self, x):
  90. x_level_0, x_level_1, x_level_2 = x[0], x[1], x[2]
  91. if self.level == 0:
  92. level_0_resized = x_level_0
  93. level_1_resized = self.stride_level_1(x_level_1)
  94. level_2_resized = self.stride_level_2(x_level_2)
  95. elif self.level == 1:
  96. level_0_resized = self.stride_level_0(x_level_0)
  97. level_1_resized = x_level_1
  98. level_2_resized = self.stride_level_2(x_level_2)
  99. elif self.level == 2:
  100. level_0_resized = self.stride_level_0(x_level_0)
  101. level_1_resized = self.stride_level_1(x_level_1)
  102. level_2_resized = x_level_2
  103. level_0_weight_v = self.weight_level_0(level_0_resized)
  104. level_1_weight_v = self.weight_level_1(level_1_resized)
  105. level_2_weight_v = self.weight_level_2(level_2_resized)
  106. levels_weight_v = torch.cat((level_0_weight_v, level_1_weight_v, level_2_weight_v), 1)
  107. w = self.weights_levels(levels_weight_v)
  108. w = F.softmax(w, dim=1)
  109. fused_out_reduced = level_0_resized * w[:, :1] + level_1_resized * w[:, 1:2] + level_2_resized * w[:, 2:]
  110. return self.conv(fused_out_reduced)

 如下图所示:


第②步:修改yolo.py文件

再来修改yolo.py,在parse_model函数中找到 elif m is Concat: 语句,在其后面加上下面代码:

  1. elif m is ASFF2:
  2. c1, c2 = [ch[f[0]], ch[f[1]]], args[0]
  3. c2 = make_divisible(c2 * gw, 8)
  4. args = [c1, c2, *args[1:]]
  5. elif m is ASFF3:
  6. c1, c2 = [ch[f[0]], ch[f[1]], ch[f[2]]], args[0]
  7. c2 = make_divisible(c2 * gw, 8)
  8. args = [c1, c2, *args[1:]]

如下图所示: 


第③步:创建自定义的yaml文件  

yaml文件配置完整代码如下:

  1. # YOLOv5 🚀 by Ultralytics, GPL-3.0 license
  2. # Parameters
  3. nc: 80 # number of classes
  4. depth_multiple: 0.33 # model depth multiple
  5. width_multiple: 0.50 # layer channel multiple
  6. anchors:
  7. - [10,13, 16,30, 33,23] # P3/8
  8. - [30,61, 62,45, 59,119] # P4/16
  9. - [116,90, 156,198, 373,326] # P5/32
  10. # YOLOv5 v6.1 backbone
  11. backbone:
  12. # [from, repeats, module, args]
  13. [[-1, 1, Conv, [64, 3, 2]], # 0-P1/2
  14. [-1, 1, Conv, [128, 3, 2]], # 1-P2/4
  15. [-1, 3, C3, [128]],
  16. [-1, 1, Conv, [256, 3, 2]], # 3-P3/8
  17. [-1, 6, C3, [256]],
  18. [-1, 1, Conv, [512, 3, 2]], # 5-P4/16
  19. [-1, 6, C3, [512]],
  20. [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
  21. [-1, 3, C3, [1024]],
  22. [-1, 1, SPPF, [1024, 5]],
  23. ] # 9
  24. # YOLOv5 v6.1 head
  25. head:
  26. [[4, 1, Conv, [128, 1, 1]], # 10 downsample backbone P3
  27. [6, 1, Conv, [256, 1, 1]], # 11 downsample backbone P4
  28. [[10, 11], 1, ASFF2, [128, 0]], # 12
  29. [[10, 11], 1, ASFF2, [256, 1]], # 13
  30. [-2, 1, C3, [128, False]], # 14
  31. [-2, 1, C3, [256, False]], # 15
  32. [9, 1, Conv, [512, 1, 1]], # 16 downsample backbone P5
  33. [[14, 15, 16], 1, ASFF3, [128, 0]], # 17
  34. [[14, 15, 16], 1, ASFF3, [256, 1]], # 18
  35. [[14, 15, 16], 1, ASFF3, [512, 2]], # 19
  36. [17, 1, C3, [256, False]], # 20 (P3/8-small)
  37. [18, 1, C3, [512, False]], # 21 (P4/16-medium)
  38. [19, 1, C3, [1024, False]], # 22 (P5/32-large)
  39. [[20, 21, 22], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
  40. ]

OK!完成! 

代码来源:


PS:

(1)本来没有准备放这个改进方法,一个是这个channel我研究了挺久,一直报错,后来直接借鉴大佬的了┗( T﹏T )┛

再一个更重要的是,在我的数据集掉点了!┗|`O′|┛ 嗷~~w(Д)w。。。我的评价是不如BiFPN。同样,也有很多友友反应掉点问题。它更大的优点可能就是参数少叭~后来看到大家讨论,这个改进可能更适合小数据集(如果合适可以试试,我没有验证。)

(2)昨晚我一个突发奇想,我做了如下改进:

就是在这三个位置加了EMA注意力。

在我的数据集上比CA+BiFPN组合涨了0.2,并且参数量更小,很nice!

大家如果有更好的改进方法可以在评论区留言呀~