0


YOLOv5改进 | 注意力机制 | 二阶注意力网络来进行单图像超分辨率【附网盘完整代码】

秋招面试专栏推荐 :深度学习算法工程师面试问题总结【百面算法工程师】——点击即可跳转


💡💡💡本专栏所有程序均经过测试,可成功执行💡💡💡


专栏目录: 《YOLOv5入门 + 改进涨点》专栏介绍 & 专栏目录 |目前已有50+篇内容,内含各种Head检测头、损失函数Loss、Backbone、Neck、NMS等创新点改进


深度卷积神经网络(CNNs)在单图像超分辨率(SISR)方面得到了广泛的研究,并取得了显著的性能。然而,现有的基于CNN的SISR方法主要关注更宽或更深的架构设计,忽视了探索中间层的特征相关性,从而阻碍了CNN的表现力。为了解决这一问题,提出了一种第二阶注意力网络(SAN),用于更强大的特征表达和特征相关性学习。具体来说,开发了一个新颖的可训练的第二阶通道注意力(SOCA)模块,该模块通过使用第二阶特征统计自适应地重新缩放通道特征,以获得更具区分性的表示。此外,我们提出了一种非局部增强的残差组(NLRG)结构,该结构不仅融入了非局部操作以捕获远距离的空间上下文信息,而且还包含了重复的局部源残差注意力组(LSRAG),以学习更抽象的特征表示。文章在介绍主要的原理后,将手把手教学如何进行模块的代码添加和修改,将修改后的完整代码放在文章的最后,方便大家一键运行,小白也可轻松上手实践。以帮助您更好地学习深度学习目标检测YOLO系列的挑战。

专栏地址:YOLOv5改进+入门——持续更新各种有效涨点方法——点击即可跳转 订阅专栏学习不迷路


1.原理

论文地址:Second-order Attention Network for Single Image Super-Resolution——点击即可跳转

官方代码: 官方代码仓库——点击即可跳转

SOCA(Second-order Channel Attention,二阶通道注意力)的主要原理涉及利用二阶特征统计来增强深度卷积神经网络(CNN)中通道之间的相关性,从而提升单幅图像超分辨率(SISR)的性能。以下是SOCA的主要原理和机制:

  1. 二阶特征统计

传统的通道注意力机制主要利用一阶特征统计(如全局平均池化)来重新调整通道特征的权重。然而,SOCA利用二阶特征统计信息,即通过计算特征的协方差矩阵,来捕捉更丰富的特征相关性。这样可以更好地识别并增强有用的特征,从而提升网络的判别能力。

  1. 结构设计

SOCA模块嵌入在深度卷积网络中,通过以下步骤实现其功能:

  1. 特征提取:从输入图像中提取初始的浅层特征。

  2. 深度特征提取:通过非局部增强残差组(NLRG)结构进一步提取深层特征。NLRG包含非局部操作和局部源残差注意力组(LSRAG),前者用于捕捉长距离的空间上下文信息,后者通过堆叠简化的残差块并结合SOCA模块进行特征学习。

  3. 特征重缩放:在每个LSRAG的末尾,通过SOCA模块对通道特征进行自适应的重缩放。具体来说,通过计算特征的二阶统计信息(协方差矩阵),并进行归一化处理,然后利用这些统计信息生成通道注意力权重,从而对各通道特征进行重新加权。

  4. 训练和优化

SOCA模块在网络训练过程中通过反向传播算法进行优化。使用L1损失函数来衡量超分辨率结果与高分辨率真实图像之间的差异,从而引导网络学习最优的特征表示。

  1. 实验验证

实验结果表明,加入SOCA模块的深度卷积网络(SAN,Second-order Attention Network)在多项公共数据集上的表现优于现有的最先进的单图像超分辨率方法,无论是定量指标还是视觉质量都有显著提升。

总结来说,SOCA通过引入二阶特征统计信息,显著增强了通道注意力机制的判别能力,从而有效提升了单幅图像超分辨率的性能。

2. 将SOCA加入YOLOv5中

2.1 SOCA的代码实现

关键步骤一:将下面代码添加到 yolov5/models/common.py中

  1. import numpy as np
  2. import torch
  3. from torch import nn
  4. from torch.nn import init
  5. from torch.autograd import Function
  6. class Covpool(Function):
  7. @staticmethod
  8. def forward(ctx, input):
  9. x = input
  10. batchSize = x.data.shape[0]
  11. dim = x.data.shape[1]
  12. h = x.data.shape[2]
  13. w = x.data.shape[3]
  14. M = h*w
  15. x = x.reshape(batchSize,dim,M)
  16. I_hat = (-1./M/M)*torch.ones(M,M,device = x.device) + (1./M)*torch.eye(M,M,device = x.device)
  17. I_hat = I_hat.view(1,M,M).repeat(batchSize,1,1).type(x.dtype)
  18. y = x.bmm(I_hat).bmm(x.transpose(1,2))
  19. ctx.save_for_backward(input,I_hat)
  20. return y
  21. @staticmethod
  22. def backward(ctx, grad_output):
  23. input,I_hat = ctx.saved_tensors
  24. x = input
  25. batchSize = x.data.shape[0]
  26. dim = x.data.shape[1]
  27. h = x.data.shape[2]
  28. w = x.data.shape[3]
  29. M = h*w
  30. x = x.reshape(batchSize,dim,M)
  31. grad_input = grad_output + grad_output.transpose(1,2)
  32. grad_input = grad_input.bmm(x).bmm(I_hat)
  33. grad_input = grad_input.reshape(batchSize,dim,h,w)
  34. return grad_input
  35. class Sqrtm(Function):
  36. @staticmethod
  37. def forward(ctx, input, iterN):
  38. x = input
  39. batchSize = x.data.shape[0]
  40. dim = x.data.shape[1]
  41. dtype = x.dtype
  42. I3 = 3.0*torch.eye(dim,dim,device = x.device).view(1, dim, dim).repeat(batchSize,1,1).type(dtype)
  43. normA = (1.0/3.0)*x.mul(I3).sum(dim=1).sum(dim=1)
  44. A = x.div(normA.view(batchSize,1,1).expand_as(x))
  45. Y = torch.zeros(batchSize, iterN, dim, dim, requires_grad = False, device = x.device)
  46. Z = torch.eye(dim,dim,device = x.device).view(1,dim,dim).repeat(batchSize,iterN,1,1)
  47. if iterN < 2:
  48. ZY = 0.5*(I3 - A)
  49. Y[:,0,:,:] = A.bmm(ZY)
  50. else:
  51. ZY = 0.5*(I3 - A)
  52. Y[:,0,:,:] = A.bmm(ZY)
  53. Z[:,0,:,:] = ZY
  54. for i in range(1, iterN-1):
  55. ZY = 0.5*(I3 - Z[:,i-1,:,:].bmm(Y[:,i-1,:,:]))
  56. Y[:,i,:,:] = Y[:,i-1,:,:].bmm(ZY)
  57. Z[:,i,:,:] = ZY.bmm(Z[:,i-1,:,:])
  58. ZY = 0.5*Y[:,iterN-2,:,:].bmm(I3 - Z[:,iterN-2,:,:].bmm(Y[:,iterN-2,:,:]))
  59. y = ZY*torch.sqrt(normA).view(batchSize, 1, 1).expand_as(x)
  60. ctx.save_for_backward(input, A, ZY, normA, Y, Z)
  61. ctx.iterN = iterN
  62. return y
  63. @staticmethod
  64. def backward(ctx, grad_output):
  65. input, A, ZY, normA, Y, Z = ctx.saved_tensors
  66. iterN = ctx.iterN
  67. x = input
  68. batchSize = x.data.shape[0]
  69. dim = x.data.shape[1]
  70. dtype = x.dtype
  71. der_postCom = grad_output*torch.sqrt(normA).view(batchSize, 1, 1).expand_as(x)
  72. der_postComAux = (grad_output*ZY).sum(dim=1).sum(dim=1).div(2*torch.sqrt(normA))
  73. I3 = 3.0*torch.eye(dim,dim,device = x.device).view(1, dim, dim).repeat(batchSize,1,1).type(dtype)
  74. if iterN < 2:
  75. der_NSiter = 0.5*(der_postCom.bmm(I3 - A) - A.bmm(der_sacleTrace))
  76. else:
  77. dldY = 0.5*(der_postCom.bmm(I3 - Y[:,iterN-2,:,:].bmm(Z[:,iterN-2,:,:])) -
  78. Z[:,iterN-2,:,:].bmm(Y[:,iterN-2,:,:]).bmm(der_postCom))
  79. dldZ = -0.5*Y[:,iterN-2,:,:].bmm(der_postCom).bmm(Y[:,iterN-2,:,:])
  80. for i in range(iterN-3, -1, -1):
  81. YZ = I3 - Y[:,i,:,:].bmm(Z[:,i,:,:])
  82. ZY = Z[:,i,:,:].bmm(Y[:,i,:,:])
  83. dldY_ = 0.5*(dldY.bmm(YZ) -
  84. Z[:,i,:,:].bmm(dldZ).bmm(Z[:,i,:,:]) -
  85. ZY.bmm(dldY))
  86. dldZ_ = 0.5*(YZ.bmm(dldZ) -
  87. Y[:,i,:,:].bmm(dldY).bmm(Y[:,i,:,:]) -
  88. dldZ.bmm(ZY))
  89. dldY = dldY_
  90. dldZ = dldZ_
  91. der_NSiter = 0.5*(dldY.bmm(I3 - A) - dldZ - A.bmm(dldY))
  92. grad_input = der_NSiter.div(normA.view(batchSize,1,1).expand_as(x))
  93. grad_aux = der_NSiter.mul(x).sum(dim=1).sum(dim=1)
  94. for i in range(batchSize):
  95. grad_input[i,:,:] += (der_postComAux[i] \
  96. - grad_aux[i] / (normA[i] * normA[i])) \
  97. *torch.ones(dim,device = x.device).diag()
  98. return grad_input, None
  99. def CovpoolLayer(var):
  100. return Covpool.apply(var)
  101. def SqrtmLayer(var, iterN):
  102. return Sqrtm.apply(var, iterN)
  103. class SOCA(nn.Module):
  104. # second-order Channel attention
  105. def __init__(self, channel, reduction=8):
  106. super(SOCA, self).__init__()
  107. self.max_pool = nn.MaxPool2d(kernel_size=2)
  108. self.conv_du = nn.Sequential(
  109. nn.Conv2d(channel, channel // reduction, 1, padding=0, bias=True),
  110. nn.ReLU(inplace=True),
  111. nn.Conv2d(channel // reduction, channel, 1, padding=0, bias=True),
  112. nn.Sigmoid()
  113. )
  114. def forward(self, x):
  115. batch_size, C, h, w = x.shape # x: NxCxHxW
  116. N = int(h * w)
  117. min_h = min(h, w)
  118. h1 = 1000
  119. w1 = 1000
  120. if h < h1 and w < w1:
  121. x_sub = x
  122. elif h < h1 and w > w1:
  123. W = (w - w1) // 2
  124. x_sub = x[:, :, :, W:(W + w1)]
  125. elif w < w1 and h > h1:
  126. H = (h - h1) // 2
  127. x_sub = x[:, :, H:H + h1, :]
  128. else:
  129. H = (h - h1) // 2
  130. W = (w - w1) // 2
  131. x_sub = x[:, :, H:(H + h1), W:(W + w1)]
  132. cov_mat = CovpoolLayer(x_sub) # Global Covariance pooling layer
  133. cov_mat_sqrt = SqrtmLayer(cov_mat,5) # Matrix square root layer( including pre-norm,Newton-Schulz iter. and post-com. with 5 iteration)
  134. cov_mat_sum = torch.mean(cov_mat_sqrt,1)
  135. cov_mat_sum = cov_mat_sum.view(batch_size,C,1,1)
  136. y_cov = self.conv_du(cov_mat_sum)
  137. return y_cov*x

SOCA(Second-order Channel Attention,二阶通道注意力)模块在单幅图像超分辨率(SISR)中的应用主要通过一个深度卷积神经网络(即SAN,Second-order Attention Network)实现。以下是它处理图像的主要流程:

  1. 输入与浅层特征提取

首先,低分辨率(LR)图像被输入到网络中,通过一个卷积层提取初始的浅层特征。这一过程可以表示为: F_0 = H{SF}(I{LR})其中,I{LR}是输入的低分辨率图像,H{SF} 是卷积操作,F_0 是提取的浅层特征。

  1. 深度特征提取

浅层特征F_0 进入深度特征提取模块,该模块由多个非局部增强残差组(NLRG)组成。NLRG结构包括以下两个主要部分:

  • 非局部模块(RL-NL):捕捉图像中长距离的空间上下文信息。
  • 局部源残差注意力组(LSRAG):通过堆叠简化的残差块,并在每个残差块的末尾加入SOCA模块来进行特征学习。

每个NLRG的输出深度特征可以表示为: F{DF} = H{NLRG}(F_0) 其中,H_{NLRG}表示NLRG结构。

  1. 上采样

从NLRG中提取的深度特征 F{DF})经过上采样模块,将低分辨率特征映射到高分辨率空间。常用的上采样方法包括转置卷积和亚像素卷积等。上采样模块的输出表示为: F^{\uparrow} = H^{\uparrow}(F{DF}) 其中, H^{\uparrow}表示上采样操作,F^{\uparrow} 是上采样后的特征。

  1. 重建高分辨率图像

上采样后的特征通过一个卷积层映射到最终的高分辨率HR图像: I{SR} = H{R}(F^{\uparrow}) 其中, HR表示重建卷积层, ISR是生成的高分辨率图像。

  1. SOCA模块的作用

在上述流程的深度特征提取部分,每个LSRAG的末尾都嵌入了SOCA模块。SOCA模块的主要步骤如下:

  1. 计算二阶特征统计:对输入特征计算协方差矩阵,捕捉通道间的相关性。
  2. 归一化与重缩放:对协方差矩阵进行归一化处理,并生成通道注意力权重。
  3. 自适应调整特征:利用注意力权重对通道特征进行自适应重缩放,以增强有用特征。

总结

SOCA通过在深度特征提取过程中利用二阶特征统计,显著提升了通道注意力机制的有效性。整个处理流程包括输入图像的浅层特征提取、深度特征提取(包括NLRG和LSRAG模块)、上采样和最终的高分辨率图像重建。这一机制在图像超分辨率任务中展现了优越的性能。

2.2 新增yaml文件

关键步骤二:在下/yolov5-6.1/models下新建文件 yolov5_SOCA.yaml并将下面代码复制进去

  1. # YOLOv5 🚀 by YOLOAir, GPL-3.0 license
  2. # Parameters
  3. nc: 80 # number of classes
  4. depth_multiple: 1.0 # model depth multiple
  5. width_multiple: 1.0 # layer channel multiple
  6. anchors:
  7. - [10,13, 16,30, 33,23] # P3/8
  8. - [30,61, 62,45, 59,119] # P4/16
  9. - [116,90, 156,198, 373,326] # P5/32
  10. # YOLOv5 v6.0 backbone
  11. backbone:
  12. # [from, number, module, args]
  13. [[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2
  14. [-1, 1, Conv, [128, 3, 2]], # 1-P2/4
  15. [-1, 3, C3, [128]],
  16. [-1, 1, Conv, [256, 3, 2]], # 3-P3/8
  17. [-1, 6, C3, [256]],
  18. [-1, 1, Conv, [512, 3, 2]], # 5-P4/16
  19. [-1, 9, C3, [512]],
  20. [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
  21. [-1, 3, C3, [1024]],
  22. [-1, 1, SPPF, [1024, 5]], # 9
  23. ]
  24. # YOLOv5 v6.0 head
  25. head:
  26. [[-1, 1, Conv, [512, 1, 1]],
  27. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  28. [[-1, 6], 1, Concat, [1]], # cat backbone P4
  29. [-1, 3, C3, [512, False]], # 13
  30. [-1, 1, Conv, [256, 1, 1]],
  31. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  32. [[-1, 4], 1, Concat, [1]], # cat backbone P3
  33. [-1, 3, C3, [256, False]], # 17 (P3/8-small)
  34. [-1, 1, Conv, [256, 3, 2]],
  35. [[-1, 14], 1, Concat, [1]], # cat head P4
  36. [-1, 3, C3, [512, False]], # 20 (P4/16-medium)
  37. [-1, 1, Conv, [512, 3, 2]],
  38. [[-1, 10], 1, Concat, [1]], # cat head P5
  39. [-1, 3, C3, [1024, False]], # 23 (P5/32-large)
  40. [-1, 1, SOCA, [1024]],
  41. [[17, 20, 24], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
  42. ]

温馨提示:本文只是对yolov5基础上添加模块,如果要对yolov5n/l/m/x进行添加则只需要指定对应的depth_multiple 和 width_multiple。


  1. # YOLOv5n
  2. depth_multiple: 0.33 # model depth multiple
  3. width_multiple: 0.25 # layer channel multiple
  4. # YOLOv5s
  5. depth_multiple: 0.33 # model depth multiple
  6. width_multiple: 0.50 # layer channel multiple
  7. # YOLOv5l
  8. depth_multiple: 1.0 # model depth multiple
  9. width_multiple: 1.0 # layer channel multiple
  10. # YOLOv5m
  11. depth_multiple: 0.67 # model depth multiple
  12. width_multiple: 0.75 # layer channel multiple
  13. # YOLOv5x
  14. depth_multiple: 1.33 # model depth multiple
  15. width_multiple: 1.25 # layer channel multiple

2.3 注册模块

关键步骤三:在yolo.py的parse_model函数中注册 添加“SOCA",

2.4 执行程序

在train.py中,将cfg的参数路径设置为yolov5_SOCA.yaml的路径

建议大家写绝对路径,确保一定能找到

🚀运行程序,如果出现下面的内容则说明添加成功🚀

  1. from n params module arguments
  2. 0 -1 1 3520 models.common.Conv [3, 32, 6, 2, 2]
  3. 1 -1 1 18560 models.common.Conv [32, 64, 3, 2]
  4. 2 -1 1 18816 models.common.C3 [64, 64, 1]
  5. 3 -1 1 73984 models.common.Conv [64, 128, 3, 2]
  6. 4 -1 2 115712 models.common.C3 [128, 128, 2]
  7. 5 -1 1 295424 models.common.Conv [128, 256, 3, 2]
  8. 6 -1 3 625152 models.common.C3 [256, 256, 3]
  9. 7 -1 1 1180672 models.common.Conv [256, 512, 3, 2]
  10. 8 -1 1 1182720 models.common.C3 [512, 512, 1]
  11. 9 -1 1 656896 models.common.SPPF [512, 512, 5]
  12. 10 -1 1 131584 models.common.Conv [512, 256, 1, 1]
  13. 11 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest']
  14. 12 [-1, 6] 1 0 models.common.Concat [1]
  15. 13 -1 1 361984 models.common.C3 [512, 256, 1, False]
  16. 14 -1 1 33024 models.common.Conv [256, 128, 1, 1]
  17. 15 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest']
  18. 16 [-1, 4] 1 0 models.common.Concat [1]
  19. 17 -1 1 90880 models.common.C3 [256, 128, 1, False]
  20. 18 -1 1 147712 models.common.Conv [128, 128, 3, 2]
  21. 19 [-1, 14] 1 0 models.common.Concat [1]
  22. 20 -1 1 296448 models.common.C3 [256, 256, 1, False]
  23. 21 -1 1 590336 models.common.Conv [256, 256, 3, 2]
  24. 22 [-1, 10] 1 0 models.common.Concat [1]
  25. 23 -1 1 1182720 models.common.C3 [512, 512, 1, False]
  26. 24 -1 1 1537 models.common.SOCA [512, 512]
  27. 25 [17, 20, 24] 1 229245 models.yolo.Detect [80, [[10, 13, 16, 30, 33, 23], [30, 61, 62, 45, 59, 119], [116, 90, 156, 198, 373, 326]], [128, 256, 512]]
  28. Model Summary: 277 layers, 7236926 parameters, 7236926 gradients

3. 完整代码分享

  1. https://pan.baidu.com/s/1JtnUUhuAgIwGV5lg1IweiQ?pwd=cwwm

提取码: cwwm

4. GFLOPs

关于GFLOPs的计算方式可以查看:百面算法工程师 | 卷积基础知识——Convolution

未改进的GFLOPs

img

改进后的GFLOPs

现在手上没有卡了,等过段时候有卡了把这补上,需要的同学自己测一下

5. 进阶

可以结合损失函数或者卷积模块进行多重改进

YOLOv5改进 | 损失函数 | EIoU、SIoU、WIoU、DIoU、FocuSIoU等多种损失函数——点击即可跳转

6. 总结

SOCA(Second-order Channel Attention,二阶通道注意力)通过引入二阶特征统计信息来增强通道之间的相关性,从而提升深度卷积神经网络的特征表示能力。具体而言,SOCA模块首先对输入特征计算协方差矩阵,以捕捉通道间的相关性,然后对协方差矩阵进行归一化处理,生成通道注意力权重。利用这些权重对特征进行自适应重缩放,增强有用特征,从而提高网络的判别能力和最终性能。在单幅图像超分辨率任务中,SOCA模块嵌入在网络的深度特征提取阶段,通过多层次的特征学习和特征重缩放,实现对低分辨率图像的有效处理和高分辨率图像的精确重建。


本文转载自: https://blog.csdn.net/m0_67647321/article/details/140714390
版权归原作者 kay_545 所有, 如有侵权,请联系我们删除。

“YOLOv5改进 | 注意力机制 | 二阶注意力网络来进行单图像超分辨率【附网盘完整代码】”的评论:

还没有评论