0


空间变形网络——STN

1 概述

CNN 的机理使得 CNN 在处理图像时可以做到 transition invariant,却没法做到 scaling invariant 和 rotation invariant。即使是现在火热的 transformer 搭建的图像模型 (swin transformer, vision transformer),也没办法做到这两点。(注:spatial transformer和这两个transformer原理不一样,虽然都叫transformer)因为他们在处理时都会参考图像中物体的相对大小和位置方向。不同大小和不同方向的物体,对网络来说是不同的东西。

其实 pooling layer 有一定程度上解决了这个问题,因为在做pooling 的时候,只要这个特征在,就可以提取出来,但池化层的感受野(receptive field)是固定(fixed)且局部(local)的,ST的行为取决于单个数据样本(意思是对于不同input image,ST的行为是随之改变的),因此是非局部的(non-locally)、动态的。

STN(spatial transformer network) 引入了一个新的可学习模块,空间变换器(ST),它可以对网络内的数据进行空间变换操作。

ST可以用反向传播机制(back-propagation,BP)进行端到端(end-to-end)训练。

这个可微模块可以插入到现有的卷积架构中,使神经网络能够以特征图本身为条件,主动地对特征图进行空间转换,而不需要任何额外的训练监督或对优化过程进行修改。

STN 能够在没有标注关键点的情况下,根据任务自己学习图片或特征的空间变换参数,将输入图片或者学习的特征在空间上进行对齐,从而减少物体由于空间中的旋转、平移、尺度、扭曲等几何变换对分类、定位等任务的影响。

在这里插入图片描述

a是输入图片,b 是 STN 中的 localisation 网络检测到的物体区域,c是 STN 对检测到的区域进行线性变换后输出,d 是有 STN 的分类网络的最终输出。

2 模型说明

STN(spatial transformer network) 更准确地说应该是 STL(spatial transformer layer),它就是网络中的一层,并且可以在任何两层之间添加一个或者多个。

如下图所示,spatial transformer 主要由两部分组成,分别是 localisation net 和 grid generator。

输入的特征图U被本地网络处理得到参数theta,然后经过网格生成器得到采样器,映射到原图U上,从而得到输出V。

2.1 Localisation Network

我们的目的是把第

  1. l
  2. 1
  3. l1
  4. l1 层的第
  5. n
  6. n
  7. n 行,第
  8. m
  9. m
  10. m 列的特征移动到第
  11. l
  12. l
  13. l层的某行某列。如下图 2-2 所示,一个
  14. 3
  15. ×
  16. 3
  17. 3 × 3
  18. 3×3 的特征要变换的话,第
  19. l
  20. l
  21. l 层的每个位置都可以表示为
  22. l
  23. 1
  24. l-1
  25. l1 层的特征的加权和。通过控制权重 ,
  26. w
  27. n
  28. m
  29. ,
  30. i
  31. j
  32. l
  33. w_{nm,ij}^l
  34. wnm,ijl​就可以实现任何仿射变换。

但如果直接加一层全连接让模型学的话,模型可能学出来的就不是仿射变换了,参数量也很大,很难学,很难控制。所有就设计了一个 localisation net,直接让模型学仿射变换的参数,这相当于是一个归纳偏置。

localisation net 的输入是前一层的特征,输出是仿射变换的参数,如果是平面的放射变换就是 6 个参数,通过这六个参数可以控制整个图像的平移,旋转,缩放。

图 2-3 通过参数进行仿射变换示例

图 2-3 中的

  1. [
  2. a
  3. ,
  4. b
  5. ,
  6. c
  7. ,
  8. d
  9. ,
  10. e
  11. ,
  12. f
  13. ]
  14. [a,b,c,d,e,f]
  15. [a,b,c,d,e,f]参数就是 localisation net 的输出。仿射变换公式就是

在这里插入图片描述

其中,

  1. x
  2. x
  3. x
  4. y
  5. y
  6. y 是当前层的坐标,
  7. x
  8. x
  9. x
  10. y
  11. y'
  12. y′ 是前一层的坐标,
  13. a
  14. a
  15. a 和
  16. d
  17. d
  18. d 主要控制缩放,
  19. b
  20. b
  21. b 和
  22. c
  23. c
  24. c 主要控制旋转,
  25. e
  26. e
  27. e 和
  28. f
  29. f
  30. f 主要控制平移。

2.2 Parameterised Sampling Grid

localisation net 输出了仿射变换参数之后,仿射变换公式告诉了我们当前层

  1. (
  2. x
  3. ,
  4. y
  5. )
  6. (x,y)
  7. (x,y) 这个位置的特征是前一层的
  8. (
  9. x
  10. ,
  11. y
  12. )
  13. (x', y')
  14. (x′,y′) 位置的特征拿过来的。但是,如图 2-4 中的例子所示,
  15. (
  16. x
  17. ,
  18. y
  19. )
  20. (x', y')
  21. (x′,y′) 可能是小数,位置需要是正整数,如果采用取整的操作的话,网络就会变得不可梯度下降,没法更新参数了。

我们想要的是,当

  1. [
  2. a
  3. ,
  4. b
  5. ,
  6. c
  7. ,
  8. d
  9. ,
  10. e
  11. ,
  12. f
  13. ]
  14. [a,b,c,d,e,f]
  15. [a,b,c,d,e,f] 发生微小的变化之后,下一层的特征也发生变化,这样才可以保证可以梯度下降。


图 2-4 带插值的仿射变换示意图

于是,作者就采用了插值的方法来进行采样。比如当坐标为

  1. [
  2. 1.6
  3. ,
  4. 2.4
  5. ]
  6. [1.6,2.4]
  7. [1.6,2.4] 时,就用
  8. [
  9. a
  10. 12
  11. l
  12. 1
  13. ,
  14. a
  15. 13
  16. l
  17. 1
  18. ,
  19. a
  20. 22
  21. l
  22. 1
  23. ,
  24. a
  25. 23
  26. l
  27. 1
  28. ]
  29. [a_{12}^{l-1}, a_{13}^{l-1}, a_{22}^{l-1}, a_{23}^{l-1}]
  30. [a12l1​,a13l1​,a22l1​,a23l1​]这几个值进行插值。这样一来
  31. [
  32. a
  33. ,
  34. b
  35. ,
  36. c
  37. ,
  38. d
  39. ,
  40. e
  41. ,
  42. f
  43. ]
  44. [a,b,c,d,e,f]
  45. [a,b,c,d,e,f] 发生微小的变化之后,
  46. [
  47. x
  48. ,
  49. y
  50. ]
  51. [x,y]
  52. [x,y] 位置采样得到的值也会有变化了。这也使得 spatial transformer 可以放到任何层,跟整个网络一起训练。

双线性插值的基本思想是通过某一点周围四个点的灰度值来估计出该点的灰度值,如图所示.

img
在实现时我们通常将变换后图像上所有的位置映射到原图像计算(这样做比正向计算方便得多),即依次遍历变换后图像上所有的像素点,根据仿射变换矩阵计算出映射到原图像上的坐标(可能出现小数),然后用双线性插值,根据该点周围 4 个位置的值加权平均得到该点值。过程可用如下公式表示:
在这里插入图片描述

将 (11) 代入 (12) 整理得:

在这里插入图片描述

因为

  1. Q
  2. 11
  3. ,
  4. Q
  5. 12
  6. ,
  7. Q
  8. 21
  9. ,
  10. Q
  11. 22
  12. Q11,Q12,Q21,Q22
  13. Q11,Q12,Q21,Q22

是相邻的四个点,所以

  1. y
  2. 2
  3. y
  4. 1
  5. =
  6. 1
  7. ,
  8. x
  9. 2
  10. x
  11. 1
  12. =
  13. 1
  14. y2y1=1,x2x1=1
  15. y2y1=1,x2x1=1,则(13)可化简为:
  16. P
  17. =
  18. (
  19. y
  20. 2
  21. y
  22. )
  23. (
  24. x
  25. 2
  26. x
  27. )
  28. Q
  29. 11
  30. +
  31. (
  32. y
  33. 2
  34. y
  35. )
  36. (
  37. x
  38. x
  39. 1
  40. )
  41. Q
  42. 21
  43. +
  44. (
  45. y
  46. y
  47. 1
  48. )
  49. (
  50. x
  51. 2
  52. x
  53. )
  54. Q
  55. 12
  56. +
  57. (
  58. y
  59. y
  60. 1
  61. )
  62. (
  63. x
  64. x
  65. 1
  66. )
  67. Q
  68. 22
  69. P=(y_2-y)(x_2-x)Q_{11}+(y_2-y)(x-x_1)Q_{21}+(y-y_1)(x_2-x)Q_{12}+(y-y_1)(x-x_1) Q_{22}
  70. P=(y2​−y)(x2​−x)Q11​+(y2​−y)(xx1​)Q21​+(yy1​)(x2​−x)Q12​+(yy1​)(xx1​)Q22

本文转载自: https://blog.csdn.net/weixin_45755332/article/details/128172678
版权归原作者 猛男技术控 所有, 如有侵权,请联系我们删除。

“空间变形网络——STN”的评论:

还没有评论