0


Swin Transformer之相对位置编码详解

一、概要

 在**Swin Transformer**采用了**相对位置编码**的概念。

 **那么相对位置编码的作用是什么呢?  ** 

** 解释:**在解释相对位置编码之前,我们需要先了解一下在NLP中Position Encoder即PE,NLP中Position_Encoder理解

       在Swin Transformer中,将特征图 如按7*7 的窗口大小划分为多个小窗格,单独在每个小窗格内进行Attention计算。这样一来,窗口内就相当于有        49个Token即49个像素值,这些像素是有一定的位置关系的,故在Attention计算时,需要考虑这些像素的位置关系,故提出了**相对位置编码**,其与NLP        中的PE是有异曲同工之妙的。

        而不同的是NLP中是在QK.T之前加入了Position信息,而Swin Transformer是在QK.T之后加入的相对位置信息,但是在效果上都是一样的。

**维度解析:**

      如果特征图的大小为**2*2*N**(N表示每个像素点的channels),那么经过拉直之后Q、K、V的维度都为4*N,那么QK.T 的维度就是4*4,其中**第一个4表示4个像素点**,**第二个4表示对于每个像素点,相对包括自己在内的四个像素点的重要程度**;而相对位置编码要得到的结果也需要是4*4,其每行表示四个像素相对于某个固定像素的**位置编码值**。

那么我们求出的相对位置编码就是对应的编码值吗?

    **答案是否定的**,求出的相对位置编码只是对应的位置索引,其索引值取值范围为 0 ~ K,**而这个索引其实对应的是一个长度为K的可学习向量**。

    这个可学习向量会在训练过程中逐步更新,而**相对位置索引**,就是提供索引值,从这个可学习向量中得到最终的位置编码值。如下图所示:

而接下来我们要做的就是,用尽可能形象的方式,解释明白这个**相对位置索引矩阵**是怎么获取的,计算公式为:

其中的B就是根据**相对位置索引矩阵(上图右侧)**中的每个像素位置的索引,从可学习向量中获取的值,并组成的**编码矩阵(上图左侧)**。

二、具体解析

假设输入的feature map高宽都为2,那么首先我们可以构建出每个像素的绝对位置(左下方的矩阵),对于每个像素的绝对位置是使用行号y和列号x表示的。

1. 相对位置索引计算第一步

比如**蓝色**的像素对应的是第0行第0列所以绝对位置索引是( 0 , 0 ),**蓝色像素使用q与所有像素k进行匹配过程中,是以蓝色像素为参考点**。**而相对位置偏置Bias就是相对每个像素情况下,不同QK的偏移值**。

**那么其他像素相对于该蓝色像素的相对位置是多少呢?**

用蓝色像素的绝对位置索引与其他位置索引进行相减,就得到其他位置相对蓝色像素的相对位置索引,如下图所示

黄色(0,1)位置:(0,0) - (0,1) = (0,-1) 

红色(1,0)位置:(0,0) - (1,0) = (-1,0)

绿色(1,1)位置:(0,0) - (1,1) = (-1,-1) 

蓝色(0,0)位置相对于自己那就是(0,0)-(0,0)= (0,0)

如下图所示,每个位置都是相对于蓝色(0,0)位置的相对值,其实就是差值。

 将其拉直后就为:

同理,当**其他位置作为相对位置时**,计算方式是一样的,都是让**当前元素与其他四个位置的坐标位置相减**。结果分别为:

将它们拉直后,分别为:

那么将上面拉直后的结果,放在一起的话,如下图所示:

**那么用代码是怎么计算的呢,是每个位置单独计算后,再拼接在一起的吗?**

**答案是否定的**,往往在矩阵相关的计算中,都会以矩阵的方式进行统一计算。代码如下:

先整体来看,后面回分步解析。
# 获取特征图所有像素点的位置坐标
coords_h = torch.arange(2)
coords_w = torch.arange(2)
coords = torch.meshgrid([coords_h, coords_w])
# 横纵坐标合并后并拉直
coords = torch.stack(coords) 
coords_flatten = torch.flatten(coords, 1)
# 计算坐标的相对位置差值
relative_coords_first = coords_flatten[:, :, None]
relative_coords_second = coords_flatten[:, None, :]
relative_coords = relative_coords_first - relative_coords_second
relative_coords = relative_coords.permute(1, 2, 0).contiguous() 

分步解析:

(1)获取所有像素点的横坐标与纵坐标

a. 获取纵坐标的取值范围

coords_h = torch.arange(2)
coords_w = torch.arange(2)
'''
coords_h:
    [0,1]
coords_w:
    [0,1]
'''

b.获取所有位置的纵坐标与横坐标

coords = torch.meshgrid([coords_h, coords_w])
'''
coords[0]:
[[0,0]
 [1,1]]
shape与特征图大小相同2x2,每个位置的值表示该像素点
的纵坐标,第一行纵坐标均为0,第二行纵坐标均为1

coords[0]:
[[0,1
 [0,1]]
shape与特征图大小相同2x2,每个位置的值表示该像素点
的横坐标,第一列横坐标均为0,第二列横坐标均为1
'''

c. 上面的coords是一个列表,里面包括两个矩阵,即横坐标矩阵与纵坐标矩阵

将横坐标矩阵与纵坐标矩阵拼接起来,torch.stack,增加一个dim=0维度并拼接
coords = torch.stack(coords) 
'''
coords:
shape:(2,2,2),第一个2表示横纵两种坐标,后面的2表示两行两列
'''
coords_flatten = torch.flatten(coords, 1)
'''
    横坐标与纵坐标分别拉直
    torch.flatten(coords,1)表示从第1个维度起拉直,
    shape(2,2,2) -> (2,4)
'''

d. 一共四个像素点,让每个像素点都其他包括自己在内的四个像素点横纵坐标求差值

所以就需要以行为单位(纵坐标与横坐标)每行各赋值4次,相当于**每个像素的横纵坐标都复制4次**,用于与四个像素点进行计算。
relative_coords_first = coords_flatten[:, :, None] 
'''
    增加一个维度,用于在以列为单位复制4次
    shape(2,4,1)
'''
 横坐标与纵坐标都分别复制了4份。

复制后的,每行表示**每个像素**的横或纵坐标复制了4次。

relative_coords_first = coords_flatten[:, None, :] 
'''
    增加一个维度,用于在以行为单位复制4次
    shape:(2,1,4)
'''
所有坐标都分别复制4次。

复制后,每行表示**所有像素**的横或纵坐标。

relative_coords_first = coords_flatten[:, :, None]
relative_coords_second = coords_flatten[:, None, :]
relative_coords = relative_coords_first - relative_coords_second
relative_coords = relative_coords.permute(1, 2, 0).contiguous() 
'''
    上面的相减采用了广播机制,其广播的流程与上述的复制过程是一致的
'''

** 上面这种做法是为了什么?**

是为了两个矩阵相减,得到的结果就相当于,四个像素点**依次作为主像素点**时,其他四个像素**相对于该主像素点的相对位置**。如下图所示:

2. 相对位置索引计算第二步

 **注意!!!** **这里描述的一直是相对位置索引,并不是相对位置偏执参数**。后面我们会根据相对位置索引去取对应的参数。

上面已经计算出来相对某一个像素,其他像素点与其的坐标差值,如下:

但是上面的结果是二维的,而最终获取的**位置参数表对于每个Head**来说是**一维**的,故需要将上面的这个结果转换为一维的形式。由于索引值的范围为[-M+1,M-1],原始的相对位置索引加上M-1,使得索引值大于等于0,变为[0,2M-2]。

为什么要将索引值变为大于等于0呢?    

这个问题其实很简单,因为我们在最后从**参数表**中获取最终值的方式,是通过索引,而索引值是不小于0的。

代码如下:

relative_coords[:, :, 0] += 2 - 1
relative_coords[:, :, 1] += 2 - 1
relative_coords[:, :, 1] += 2 - 1

3. 相对位置索引计算第三步

 对与每行,即不同像素间,希望得到的索引位置是不同的,但是如果直接横纵坐标相加的话,往往会出现像素不同,索引相同的情况,如下所示:

     所以最后将所有横坐标都乘上2M-1,最后再将横坐标和纵坐标求和,这样**每行不同像素间**得到的索引就具有独一性。

relative_coords[:, :, 0] *= 2 * 2 - 1

最后将行标和列标进行相加,得到独一的一维的索引,这样即保证了相对位置关系,而且不会出现上述0 +1 = 1 + 0 的问题了,是不是很神奇。

relative_position_index = relative_coords.sum(-1)
至此就计算出了相对位置的索引,其并不是公式中的位置偏置参数。

真正使用到的可训练参数使保存在**相对位置偏置表** **relative position bias table**中的,这个表的size为9,因为上面矩阵中索引值为0到8 是9个数。

即N = (2M-1)* (2M-1) = (4-1) * (4-1) =9.其是可训练的,随着训练过程,其内部的数值是不断优化更新的。
self.relative_position_bias_table = nn.Parameter(
                torch.zeros((2 * window_size[0] - 1) * (2 * window_size[1] - 1), num_heads)) 

如relative position bias table如下所示:

所以可以,操作相对位置索引的数值,依次从table中获取对应的参数

至此,最终的相对位置编码才计算完毕。总体流程如下图所示:


本文转载自: https://blog.csdn.net/weixin_40723264/article/details/127632545
版权归原作者 算法小乔 所有, 如有侵权,请联系我们删除。

“Swin Transformer之相对位置编码详解”的评论:

还没有评论