0


CA-用于轻型网络的坐标注意力 | CVPR2021

Coordinate Attention for Efficient Mobile Network Design

创新点

  • 为轻型网络提出 CA(Coordinate Attention)注意力机制;
  • CA 注意力通过嵌入位置信息到通道注意力,避免在二维全局池化中位置信息的损失还可以使CA能够捕获长距离的依赖关系。

问题

  • SE(Squeeze-and-Excitation)注意力在编码过程中忽略了位置信息的重要性;
  • CBAM(CBAM: Convolutional Block Attention Module)中不能捕捉的长距离依赖关系。

方法

在这里插入图片描述

CA注意力如图所示。

Coordinate Information Embedding

将 CxHxW 形状的输入特征图逐通道进行平均池化,使用(H,1)和(1,W)的池化核分别按X和Y轴方向进行池化对每个通道进行编码,产生 CxHx1 和 Cx1xW 形状的特征图。

通过这种方式所产生的一对方法感知特征图可以使 CA 注意力能够在一个通道内捕获长距离的依赖关系,并且还有助于保留精确的位置信息,使网络能够更加准确的定位对象。

Coordinate Attention Generation

将上述所提取到的特征图按空间维度进行拼接,拼接成

  1. C
  2. r
  3. \frac{C}{r}
  4. rCx1x(W+H) 形状的特征图,其中 r 用于控制块的减小率和SE中的作用相同。

再将特征图经过F1卷积变换函数(1x1卷积)和非线性激活函数产生 f 中间特征图。

在将 f 按空间维度拆分成两个张量 fh 和 fw ,形状分别为

  1. C
  2. r
  3. \frac{C}{r}
  4. rCxH
  5. C
  6. r
  7. \frac{C}{r}
  8. rCxW,再分别进行 Fh Fw 卷积变换函数(1x1卷积)和 Sigmoid 激活函数得到 gh gw 坐标注意力。

最后将gh 和 gw 与原输入进行相乘得到与输入相同形状的输出。


本文转载自: https://blog.csdn.net/qq_43311107/article/details/127184624
版权归原作者 小米5027 所有, 如有侵权,请联系我们删除。

“CA-用于轻型网络的坐标注意力 | CVPR2021”的评论:

还没有评论