0


Swin Transformer详解

继vit之后,进一步证明了Transformer可以在视觉领域广泛应用,并且可以应用到半监督以及自监督中。

Swin Transformer:Hierarchical Vision Transformer Using Shifted Windows

Swin Transformer:用了移动窗口的层级式的Transformer,Swin来自Shifted Windows。

他可以像CNN一样做到层级式提取,使提取到的特征有多尺度的概念

摘要

Vit出现后虽然让大家看到了Transformer在视觉领域的潜力,但并不确定Transformer可以做掉所有视觉任务。

Swin Transformer可以作为一个通用的骨干网络。

面对的挑战:1、多尺度。 2、高像素。

移动窗口提高效率,并通过Shifted操作变相达到全局建模能力。

层次结构:灵活,可以提供各个尺度特征信息,容易使用到下游任务中。

最后分层设计和移位窗口方法也被证明对所有mlp体系结构都是有益的。

引言

Vit虽然可以全局建模,但单一尺寸和低分辨率减弱了对多尺寸特征的把握,然而对密集预测型任务多尺寸特征非常重要。同时Vit是全局建模,复杂度与图像大小为平方关系。

由此,借鉴CNN的先验知识和设计理念,提出了Swin Transformer。

1、复杂度

在小窗口内计算自注意力从而使复杂度降到线性,这利用了CNN中局部性的先验知识:同一个物体的不同部分和语意相近部分大概率相邻。

2、多尺寸特征

卷积神经网络为什么有多尺度特征?因为池化操作,池化能增大每一个卷积核的感受野。因此这里也提出一个类似池化的patch merging,将相邻的小patch合成大patch,增大感受野和获取多尺寸特征信息。有了这些多尺寸特征图就可以扔给分割,检测,这使它可以作为一个骨干网络。

shift操作

假设窗口大小为M,shift操作就是向右向下分别平移M//2个patch,然后在新的特征图重新进行自注意力,这让相邻窗口有了交互的能力。估计看到这里会一头雾水,先不用搞清,具体原理稍后就说。

先说说为什么会能够具有交互能力,比如第四行第四列的patch,最初只能和最左上角的窗口内的其他patch进行自注意力,但shift之后就可以和第四行第五列的patch,第五行第四列的patch,第五行第五列的patch进行自注意力,而这三个patch分别来自其它三个窗口,这就使得不同窗口间有了交互能力。再加上patch merging就可以做到全局自注意力操作了。

网络结构

整体结构

patch partition

与Vit类似,使用一个卷积核大小为4*4,步长为4,通道数为48的卷积神经网络后维度为(H/4,W/4,48)

linear Embedding

将维度调整到C,并且它还包含一个layer norm

Swin Transformer Block

输入输出维度不变。首先一个Swin Transformer Blocks包含两个block,分别将原有的Multi-head attention(MSA)替换成窗口注意力(Window-MSA)和滑动窗口注意力(Shifted Window-MSA)

Patch Merging

类似于池化,对特征图进行下采样,同时通道数变为2倍,后面细讲。

具体实现

Patch Merging

12123434121234341111222
2
33334444
这里的1,2,3,4代表的是序号,也就是说先将序号相同的patch汇聚到一起,这时候有四个(H/2,W/2,C)的张量,再在C的维度依次拼接这四个张量得到(H/2,W/2,4C)的张量,对他在4C维度上进行layer norm。因为卷积神经网络每次下采样后通道数会变成两倍,因此我们通过一个Linear将其维度转变为(H/2,W/2,2C) 。

W-MSA

目的:减少计算量

缺点:窗口之间无法进行信息交互。

做法:只对window之内的patch做self-attention。

以下是复杂度对比,推导见Swin-Transformer网络结构详解_swin transformer_太阳花的小绿豆的博客-CSDN博客

SW-MSA

再来仔细看这幅图:

将窗口向右向下分别平移M//2个patch,这时会出现9个窗口,并且每个窗口内的patch数不一样。

有两种解决方法,一种是对每个窗口进行补0,但这样就从一开始要计算的4个窗口变成了计算9个窗口,计算量大大增加。一种是通过masking方法来减少计算。

先将AC移到下方,再讲BA移到右方,被移动的和它现在相邻的在原本是没有关系的。比如原来C是天,最下面的是地,现在C被移到最下方,也不能说天在地下面。因此这些原本无关的patch就不能进行自注意力计算,因此我们需要使用masking。

现在我们已经得到了4*4的window,怎么进行mask呢?(如果看不懂强烈建议去学习朱导的精读,时间45:00。)

首先一个窗口有7*7个patch,那么向下向右平移7//2=3个单位。假设各部分按此编号。我们将窗口2展开,各个patch的来源应该是

3,3,3,3,3,3,3,

3,3,3,3,3,3,3,

3,3,3,3,3,3,3,

3,3,3,3,3,3,3,

6,6,6,6,6,6,6,

6,6,6,6,6,6,6,

6,6,6,6,6,6,6,

前28个来自3,后21个来自6。自注意力后得到

attention矩阵维度是4949,左上角2828的块是3号区域内的attention,右下角的21*21是6号区域内的attention,我们需要mask掉3号区域与6号区域的attention就可以。作者提到因为attention都是一个零点几的小数,所以我们直接给要mask掉的地方-100就可以做到softmax后其值为0.

类似的我们看看编号为12的窗口,它展开应该是这样的

1,1,1,1,2,2,2,

1,1,1,1,2,2,2,

1,1,1,1,2,2,2,

1,1,1,1,2,2,2

与刚才的方法类似,于是我们得到各个窗口的mask如下

最终我们还要把刚刚移动的移回去就大功告成。

相对位置偏移

因为本文仅供自己复习用,如果看不懂我写的强烈建议学习12.1 Swin-Transformer网络结构详解_哔哩哔哩_bilibili

时间37:00

这里的B就是相对位置偏移 。首先,在Swin Transformer中使用绝对位置编码表现并不好,其次相对位置编码表现得很好,因此我们用相对位置编码。。。

1、相对位置索引

假如特征图如下
abcd
这时候a,b,c,d的绝对位置索引是
0,00,11,01,1
a,b,c,d与其他的相对位置矩阵分别为(自己的索引减去别人的索引)
0,00,-1-1,0-1,-10,10,0-1,1-1,01,01,-10,0
0,-1
1,11,00,10,0
将四个矩阵展平,拼接
0,00,-1-1,0-1,-10,10,0-1,1-1,01,01,-10,00,-11,11,00,10,0
然后再将二维坐标转换为一维坐标,如果直接将行列坐标相加,会发生之前索引不同而之后索引相同的情况,如(-1,0)和(0,-1)

于是我们先给行和列都加上M-1,在这个例子中M=2。

说白了其实就是消除负数
1,11,00,10,01,21,10,20,12,12,01,11,02,22,11,21,1
然后我们给行标乘2M-1再和列标相加
4310542176438754
通过上述方法我们让刚刚索引相同的值仍然相同,索引不同但行标列标相加后相同的情况索引不再相同,比如刚刚的(0,-1)和(-1,0)

2、相对位置偏置

我们根据相对位置索引去相对位置偏置表中取需要的值,相对位置偏置表的元素个数为(2M-1)*(2M-1),他是一个可学习的参数,相对位置索引是固定的

最终得到相对位置偏置
0.10.80.20.10.60.1
0.3
0.20.40.40.130.70.40.60.1

模型配置参数

消融实验

结论

复杂度同图像大小是线性关系。基于移动窗口的自注意力在密集预测型任务中非常有效。

最后,本文章仅供学习


本文转载自: https://blog.csdn.net/m0_74982304/article/details/130068899
版权归原作者 盛开着永不凋零 所有, 如有侵权,请联系我们删除。

“Swin Transformer详解”的评论:

还没有评论