0


视觉SLAM总结——SuperPoint / SuperGlue

视觉SLAM总结——SuperPoint / SuperGlue

视觉SLAM总结——SuperPoint / SuperGlue

在我刚开始接触SLAM算法的时候听到过一个大佬讲:“SLAM其实最重要的是前端,如果特征匹配做得足够鲁棒,后端就可以变得非常简单”,当时自己总结过一篇传统视觉特征的博客视觉SLAM总结——视觉特征子综述,由于当时对深度学习了解不够,因此并没有涵盖基于深度学习的视觉特征匹配方法,而实际上,基于深度学习的特征匹配效果要远优于传统方法。本博客结合代码对2018年提出的SuperPoint和2020年提出的SuperGlue两篇最为经典的深度学习算法进行学习总结。

1. SuperPoint

SuperPoint发表于2018年,原论文名为《SuperPoint: Self-Supervised Interest Point Detection and Description
》,该方法使用无监督的方式训练了一个用于提取图像特征以及特征描述子的网络。

1.1 网络结构

SuperPoint的网络结构如下图所示:
在这里插入图片描述
我们知道,图像特征通常包括两部分,特征点已经特征描述子,上图中两个分支即分别用来提取特征点和特征描述子。网络首先使用了VGG-Style的Encoder用于降低图像尺寸提取特征,Encoder部分由卷积层、Max-Pooling层和非线性激活层组成,通过三个Max-Pooling层将图像尺寸变为输出的

  1. 1
  2. /
  3. 8
  4. 1/8
  5. 1/8,代码如下:
  1. # Shared Encoder
  2. x = self.relu(self.conv1a(data['image']))
  3. x = self.relu(self.conv1b(x))
  4. x = self.pool(x)
  5. x = self.relu(self.conv2a(x))
  6. x = self.relu(self.conv2b(x))
  7. x = self.pool(x)
  8. x = self.relu(self.conv3a(x))
  9. x = self.relu(self.conv3b(x))
  10. x = self.pool(x)
  11. x = self.relu(self.conv4a(x))
  12. x = self.relu(self.conv4b(x))# x的输出维度是(N128W/8, H/8

对于特征点提取部分,网路先将维度

  1. (
  2. W
  3. /
  4. 8
  5. ,
  6. H
  7. /
  8. 8
  9. ,
  10. 128
  11. )
  12. (W/8, H/8, 128)
  13. (W/8,H/8,128)的特征处理为
  14. (
  15. W
  16. /
  17. 8
  18. ,
  19. H
  20. /
  21. 8
  22. ,
  23. 65
  24. )
  25. (W/8, H/8, 65)
  26. (W/8,H/8,65)大小,这里的
  27. 65
  28. 65
  29. 65的含义是特征图的每一个像素表示原图
  30. 8
  31. ×
  32. 8
  33. 8\times8
  34. 8×8的局部区域加上一个当局部区域不存在特征点时用于输出的Dustbin通道,通过Softmax以及Reshape的操作,最终特征会恢复为原图大小,代码如下:
  1. # Compute the dense keypoint scores
  2. cPa = self.relu(self.convPa(x))# x维度是(N128W/8, H/8
  3. scores = self.convPb(cPa)# scores维度是(N65W/8, H/8
  4. scores = torch.nn.functional.softmax(scores,1)[:,:-1]# scores维度是(N64W/8, H/8
  5. b, _, h, w = scores.shape
  6. scores = scores.permute(0,2,3,1).reshape(b, h, w,8,8)# scores维度是(NW/8, H/8 8 8
  7. scores = scores.permute(0,1,3,2,4).reshape(b, h*8, w*8)# scores维度是(NW/8, H/8
  8. scores = simple_nms(scores, self.config['nms_radius'])

这里指的注意的是我们是先对包括Dustbin通道的特征图进行Softmax操作后再进行Slice的。假如没有Dustbin通道,当

  1. 8
  2. ×
  3. 8
  4. 8\times8
  5. 8×8的局部区域内没有特征点时,经过Softmax64维的特征势必还是会有一个相对较大的值输出,但加入Dustbin通道后就可以避免这个问题,因此需要在Softmax操作后再进行Slice。最后再经过NMS后相应较大的位置即为输出的特征点。

对于特征描述子提取部分,网络先将维度

  1. (
  2. W
  3. /
  4. 8
  5. ,
  6. H
  7. /
  8. 8
  9. ,
  10. 128
  11. )
  12. (W/8, H/8, 128)
  13. (W/8,H/8,128)的特征处理为
  14. (
  15. W
  16. /
  17. 8
  18. ,
  19. H
  20. /
  21. 8
  22. ,
  23. 256
  24. )
  25. (W/8, H/8, 256)
  26. (W/8,H/8,256)大小,其中
  27. 256
  28. 256
  29. 256将是我们即将输出的特征的维度。按照通道进行归一化后根据特征点的位置通过双线性插值得到特征向量。
  1. # Compute the dense descriptors
  2. cDa = self.relu(self.convDa(x))
  3. descriptors = self.convDb(cDa)# descriptor的维度是(N25688
  4. descriptors = torch.nn.functional.normalize(descriptors, p=2, dim=1)# 按通道进行归一化# Extract descriptors
  5. descriptors =[sample_descriptors(k[None], d[None],8)[0]for k, d inzip(keypoints, descriptors)]

其中双线性插值相关的操作在sample_descriptors中,该函数如下:

  1. defsample_descriptors(keypoints, descriptors, s:int=8):""" Interpolate descriptors at keypoint locations """
  2. b, c, h, w = descriptors.shape
  3. keypoints = keypoints - s /2+0.5
  4. keypoints /= torch.tensor([(w*s - s/2-0.5),(h*s - s/2-0.5)],).to(keypoints)[None]# 这里*s的原因是keypoints在(W,H)特征图上提取的,而descriptor目前是在(W/s,H/s)的特征图上提取的
  5. keypoints = keypoints*2-1# normalize to (-1, 1)
  6. args ={'align_corners':True}if torch.__version__ >='1.3'else{}
  7. descriptors = torch.nn.functional.grid_sample(
  8. descriptors, keypoints.view(b,1,-1,2), mode='bilinear',**args)# 双线性插值
  9. descriptors = torch.nn.functional.normalize(
  10. descriptors.reshape(b, c,-1), p=2, dim=1)return descriptors

以上就完成了SuperPoint前向部分特征点和特征向量的提取过程,接下来看下这个网络是如何训练的?

1.2 损失函数

首先我们看下基于特征点和特征向量是如何建立损失函数的,损失函数公式如下:

  1. L
  2. (
  3. X
  4. ,
  5. X
  6. ,
  7. D
  8. ,
  9. D
  10. ;
  11. Y
  12. ,
  13. Y
  14. ,
  15. S
  16. )
  17. =
  18. L
  19. p
  20. (
  21. X
  22. ,
  23. Y
  24. )
  25. +
  26. L
  27. p
  28. (
  29. X
  30. ,
  31. Y
  32. )
  33. +
  34. λ
  35. L
  36. d
  37. (
  38. D
  39. ,
  40. D
  41. ,
  42. S
  43. )
  44. \mathcal{L}\left(\mathcal{X}, \mathcal{X}^{\prime}, \mathcal{D}, \mathcal{D}^{\prime} ; Y, Y^{\prime}, S\right)=\mathcal{L}_{p}(\mathcal{X}, Y)+\mathcal{L}_{p}\left(\mathcal{X}^{\prime}, Y^{\prime}\right)+\lambda \mathcal{L}_{d}\left(\mathcal{D}, \mathcal{D}^{\prime}, S\right)
  45. L(X,X′,D,D′;Y,Y′,S)=Lp​(X,Y)+Lp​(X′,Y′)+λLd​(D,D′,S)其中
  46. L
  47. p
  48. \mathcal{L}_{p}
  49. Lp​为特征点相关的损失,
  50. L
  51. d
  52. \mathcal{L}_{d}
  53. Ld​为特征向量相关的损失,其中
  54. X
  55. \mathcal{X}
  56. X
  57. Y
  58. Y
  59. Y
  60. D
  61. \mathcal{D}
  62. D分别为图像上通过网络提取的特征点、特征向量和特征点的真值。

特征点相关损失

  1. L
  2. p
  3. \mathcal{L}_{p}
  4. Lp​定义为一个交叉熵损失:
  5. L
  6. p
  7. (
  8. X
  9. ,
  10. Y
  11. )
  12. =
  13. 1
  14. H
  15. c
  16. W
  17. c
  18. h
  19. =
  20. 1
  21. w
  22. =
  23. 1
  24. H
  25. c
  26. ,
  27. W
  28. c
  29. l
  30. p
  31. (
  32. x
  33. h
  34. w
  35. ;
  36. y
  37. h
  38. w
  39. )
  40. \mathcal{L}_{p}(\mathcal{X}, Y)=\frac{1}{H_{c} W_{c}} \sum_{{h=1 \\ w=1}}^{H_{c}, W_{c}} l_{p}\left(\mathbf{x}_{h w} ; y_{h w}\right)
  41. Lp​(X,Y)=HcWc1h=1w=1Hc​,Wc​​lp​(xhw​;yhw​)其中
  42. l
  43. p
  44. (
  45. x
  46. h
  47. w
  48. ;
  49. y
  50. h
  51. w
  52. )
  53. =
  54. log
  55. (
  56. exp
  57. (
  58. x
  59. h
  60. w
  61. y
  62. )
  63. k
  64. =
  65. 1
  66. 65
  67. exp
  68. (
  69. x
  70. h
  71. w
  72. k
  73. )
  74. )
  75. l_{p}\left(\mathbf{x}_{h w} ; y_{h w}\right)=-\log \left(\frac{\exp \left(\mathbf{x}_{h w y}\right)}{\sum_{k=1}^{65} \exp \left(\mathbf{x}_{h w k}\right)}\right)
  76. lp​(xhw​;yhw​)=−log(∑k=165exp(xhwk​)exp(xhwy​)​)其中
  77. H
  78. c
  79. =
  80. H
  81. /
  82. 8
  83. H_{c}=H/8
  84. Hc​=H/8
  85. W
  86. c
  87. =
  88. W
  89. /
  90. 8
  91. W_{c}=W/8
  92. Wc​=W/8
  93. y
  94. h
  95. w
  96. y_{h w}
  97. yhw​为真值,即
  98. 8
  99. ×
  100. 8
  101. 8\times8
  102. 8×8的方格中哪个Pixel为特征点;
  103. x
  104. h
  105. w
  106. \mathbf{x}_{h w}
  107. xhw​是一个长度为
  108. 65
  109. 65
  110. 65的特征向量,向量的每一个数值代表相应的Pixel上特征点的响应值。

特征向量相关损失

  1. L
  2. d
  3. \mathcal{L}_{d}
  4. Ld​定义为一个合页损失(Hinge-Loss,在SVM算法中用到):
  5. L
  6. d
  7. (
  8. D
  9. ,
  10. D
  11. ,
  12. S
  13. )
  14. =
  15. 1
  16. (
  17. H
  18. c
  19. W
  20. c
  21. )
  22. 2
  23. h
  24. =
  25. 1
  26. w
  27. =
  28. 1
  29. H
  30. c
  31. ,
  32. W
  33. c
  34. h
  35. =
  36. 1
  37. w
  38. =
  39. 1
  40. H
  41. c
  42. ,
  43. W
  44. c
  45. l
  46. d
  47. (
  48. d
  49. h
  50. w
  51. ,
  52. d
  53. h
  54. w
  55. ;
  56. s
  57. h
  58. w
  59. h
  60. w
  61. )
  62. \mathcal{L}_{d}\left(\mathcal{D}, \mathcal{D}^{\prime}, S\right)=\frac{1}{\left(H_{c} W_{c}\right)^{2}} \sum_{{h=1 \\ w=1}}^{H_{c}, W_{c}} \sum_{{h^{\prime}=1 \\ w^{\prime}=1}}^{H_{c}, W_{c}} l_{d}\left(\mathbf{d}_{h w}, \mathbf{d}_{h^{\prime} w^{\prime}}^{\prime} ; s_{h w h^{\prime} w^{\prime}}\right)
  63. Ld​(D,D′,S)=(HcWc​)21h=1w=1Hc​,Wc​​h′=1w′=1Hc​,Wc​​ld​(dhw​,dhw′′​;shwhw′​)其中
  64. l
  65. d
  66. (
  67. d
  68. ,
  69. d
  70. ;
  71. s
  72. )
  73. =
  74. λ
  75. d
  76. s
  77. max
  78. (
  79. 0
  80. ,
  81. m
  82. p
  83. d
  84. T
  85. d
  86. )
  87. +
  88. (
  89. 1
  90. s
  91. )
  92. max
  93. (
  94. 0
  95. ,
  96. d
  97. T
  98. d
  99. m
  100. n
  101. )
  102. l_{d}\left(\mathbf{d}, \mathbf{d}^{\prime} ; s\right)=\lambda_{d} * s * \max \left(0, m_{p}-\mathbf{d}^{T} \mathbf{d}^{\prime}\right)+(1-s) * \max \left(0, \mathbf{d}^{T} \mathbf{d}^{\prime}-m_{n}\right)
  103. ld​(d,d′;s)=λd​∗smax(0,mp​−dTd′)+(1s)∗max(0,dTd′−mn​)其中
  104. λ
  105. d
  106. \lambda_{d}
  107. λd​为定义的权重,
  108. s
  109. h
  110. w
  111. h
  112. w
  113. s_{h w h^{\prime} w^{\prime}}
  114. shwhw′​为判断是通过单应矩阵关联判断否为同一个特征点的函数:
  115. s
  116. h
  117. w
  118. h
  119. w
  120. =
  121. {
  122. 1
  123. ,
  124. if
  125. H
  126. p
  127. h
  128. w
  129. ^
  130. p
  131. h
  132. w
  133. 8
  134. 0
  135. ,
  136. otherwise
  137. s_{h w h^{\prime} w^{\prime}}= \begin{cases}1, & \text { if }\left\|\widehat{\mathcal{H} \mathbf{p}_{h w}}-\mathbf{p}_{h^{\prime} w^{\prime}}\right\| \leq 8 \\ 0, & \text { otherwise }\end{cases}
  138. shwhw′​={1,0,​ if ∥∥∥​Hphw​​−phw′​∥∥∥​≤8 otherwise ​其中
  139. p
  140. \mathbf{p}
  141. p
  142. 8
  143. ×
  144. 8
  145. 8\times8
  146. 8×8的方格的中心点,当
  147. H
  148. p
  149. h
  150. w
  151. ^
  152. \widehat{\mathcal{H} \mathbf{p}_{h w}}
  153. Hphw​​和
  154. p
  155. h
  156. w
  157. \mathbf{p}_{h^{\prime} w^{\prime}}
  158. phw′​距离小于8个像素时认为匹配成功,一个放个对应的其实是一个特征点。此外我们来分析下合页损失,当匹配成功时,当相似度
  159. d
  160. T
  161. d
  162. \mathbf{d}^{T} \mathbf{d}^{\prime}
  163. dTd′大于正样本阈值
  164. m
  165. p
  166. m_{p}
  167. mp​时会进行惩罚;当匹配失败时,当相似度
  168. d
  169. T
  170. d
  171. \mathbf{d}^{T} \mathbf{d}^{\prime}
  172. dTd′小于负样本阈值
  173. m
  174. p
  175. m_{p}
  176. mp​时会进行惩罚。在这样的损失函数作用下,**当匹配成功时,相似度就应该很大,匹配失败时,相似度就应该很小**。

1.3 自监督训练过程

以上就是网路损失函数的相关定义,在SuperPoint论文中很重要的一部分就是不监督训练,下面我们来看看该网络是如何实无监督训练的。网络训练一共分为如下几部分:
在这里插入图片描述
第一步是在如下图所示的Synthetic Shapes Dataset上进行预训练,训练的结果成为MagicPoint。虽然是在合成的数据集上进行训练的,但是论文中提到MagicPoint在Corner-Like Structure的现实场景也具备一定的泛化能力,而面对更加普遍的场景,MagicPoint的效果就会下降,为此作者增加了第二步,即Homographic Adaption。
在这里插入图片描述
第二步的Homographic Adaption的流程如下图所示:
在这里插入图片描述
我们假设

  1. f
  2. θ
  3. (
  4. )
  5. f_{\theta}(\cdot)
  6. fθ​(⋅)为MagicPoint的检测模型,
  7. I
  8. I
  9. I为输入图像,
  10. X
  11. \mathbf{X}
  12. XMagicPoint检测的特征点,
  13. H
  14. \mathcal{H}
  15. H为随机的单应矩阵。首先我们有:
  16. x
  17. =
  18. f
  19. θ
  20. (
  21. I
  22. )
  23. \mathbf{x}=f_{\theta}(I)
  24. x=fθ​(I)我们对图像进行单应变换,如果特征点检测算法具备单应不变性(这也是我们希望具备的),那么就应该满足如下公式:
  25. H
  26. x
  27. =
  28. f
  29. θ
  30. (
  31. H
  32. (
  33. I
  34. )
  35. )
  36. \mathcal{H} \mathbf{x}=f_{\theta}(\mathcal{H}(I))
  37. Hx=fθ​(H(I))对公式进行变换:
  38. x
  39. =
  40. H
  41. 1
  42. f
  43. θ
  44. (
  45. H
  46. (
  47. I
  48. )
  49. )
  50. \mathbf{x}=\mathcal{H}^{-1} f_{\theta}(\mathcal{H}(I))
  51. x=H1fθ​(H(I))然后哦我们采样尽可能多的随机单应矩阵就可以得到足够多的具备单应不变性的特征点的真值:
  52. F
  53. ^
  54. (
  55. I
  56. ;
  57. f
  58. θ
  59. )
  60. =
  61. 1
  62. N
  63. h
  64. i
  65. =
  66. 1
  67. N
  68. h
  69. H
  70. i
  71. 1
  72. f
  73. θ
  74. (
  75. H
  76. i
  77. (
  78. I
  79. )
  80. )
  81. \hat{F}\left(I ; f_{\theta}\right)=\frac{1}{N_{h}} \sum_{i=1}^{N_{h}} \mathcal{H}_{i}^{-1} f_{\theta}\left(\mathcal{H}_{i}(I)\right)
  82. F^(I;fθ​)=Nh1i=1Nh​​Hi1fθ​(Hi​(I))

第三步则是根据前面提供的损失函数进行迭代训练。

以上就完成SuperPoint算法的基本原理介绍,其效果如下:在这里插入图片描述
我们可以看到第四行SuperPoint的表现其实很差,我们知道单应变化成立的前提条件是场景中存在平面,而第四行的场景很显然不太满足这种条件,因此效果也会比较差,这也体现了SuperPoint在自监督训练下的一些不足之处。

2. SuperGlue

SupreGlue发表于2020年,原论文名为《SuperGlue: Learning Feature Matching with Graph Neural Networks》,该论文引入了Transformer实现了一种2D特征点匹配方法。我们知道,在经典的SLAM框架中,前端进行特征提取,后端进行非线性优化,而中间非常重要的一步就是特征匹配,传统的特征匹配通常是结合最近邻、RASANC等一些算法进行处理,SuperGlue的推出是SLAM算法迈向端到端深度学习的一个重要里程碑。由于下面的网络介绍中涉及到Transformer的相关知识,对这部分知识不熟悉的同学可以参考下计算机视觉算法——Transformer学习笔记。

2.1 Sinkhorn算法

SuperGlue论文中给出的算法Pipeline如下图所示:
在这里插入图片描述
从算法Pipeline可以看出,算法通过Attentional Graph Neural Network输出一个Score Matrix,在Optimal Matching Layer中使用Sinkhorn Algorithm得到最终的匹配结果,这里我们先来搞清楚这个Score Matrix是什么,后文再讨论如何得到这个Score Matrix,要搞清楚Score Matrix的含义,我们就得先了解Sinkhorn Algorithm的基本原理。

Sinkhorn Algorithm解决的是最有传输问题,即解决如何以最小代价将一个分布转移为另一个分布的问题,这里我们参考博客Notes on Optimal Transport中的一个例子来说明该算法:

家里有的水果种类和份数如下表所示:
水果类别苹果梨子份数21
家庭成员对水果的需求量如下表所示:
家庭成员小A小B小C需求数量111
然后团队成员不同家庭成员对不用水果的喜好程度还不一样,如下表所示:
小A小B小C苹果012梨子201
那么我们怎样分配水果才能使得整体最优呢?如果我们将该问题当作一个二分图问题的话,那么可以使用匈牙利匹配或者KM算法求解,但是二分图问题要求对象是不可微分的,也就是说水果是不可以切开的。但是Sinkhorn Algorithm解决的是可微分问题,也就是这里我们分水果的时候可以将水果切开分。

下面我们通过公式来定义该问题,我们定义家庭成员对水果的需求为

  1. c
  2. =
  3. (
  4. 1
  5. ,
  6. 1
  7. ,
  8. 1
  9. )
  10. \mathbf{c}=(1,1,1)^{\top}
  11. c=(1,1,1)⊤,水果的数量分布为
  12. r
  13. =
  14. (
  15. 2
  16. ,
  17. 1
  18. )
  19. \mathbf{r}=(2,1)^{\top}
  20. r=(2,1)⊤,接下来我们定义分配矩阵
  21. U
  22. (
  23. r
  24. ,
  25. c
  26. )
  27. U(\mathbf{r}, \mathbf{c})
  28. U(r,c)为
  29. U
  30. (
  31. r
  32. ,
  33. c
  34. )
  35. =
  36. {
  37. P
  38. R
  39. >
  40. 0
  41. n
  42. ×
  43. m
  44. P
  45. 1
  46. m
  47. =
  48. r
  49. ,
  50. P
  51. 1
  52. n
  53. =
  54. c
  55. }
  56. U(\mathbf{r}, \mathbf{c})=\left\{P \in \mathbb{R}_{>0}^{n \times m} \mid P \mathbf{1}_{m}=\mathbf{r}, P^{\top} \mathbf{1}_{n}=\mathbf{c}\right\}
  57. U(r,c)={PR>0n×m​∣P1m​=r,P1n​=c}
  58. U
  59. (
  60. r
  61. ,
  62. c
  63. )
  64. U(\mathbf{r}, \mathbf{c})
  65. U(r,c)包含了所有分配的可能性,接下来我们根据团队成员对甜点的定义损失矩阵
  66. M
  67. M
  68. M,我们最佳的分配方案应该满足
  69. d
  70. M
  71. (
  72. r
  73. ,
  74. c
  75. )
  76. =
  77. min
  78. P
  79. U
  80. (
  81. r
  82. ,
  83. c
  84. )
  85. i
  86. ,
  87. j
  88. P
  89. i
  90. j
  91. M
  92. i
  93. j
  94. d_{M}(\mathbf{r}, \mathbf{c})=\min _{P \in U(\mathbf{r}, \mathbf{c})} \sum_{i, j} P_{i j} M_{i j}
  95. dM​(r,c)=PU(r,c)mini,j∑​PijMij​注意这里不是矩阵相乘,而是逐个像素相乘再相加。使用Sinkhorn Algorithm求解该问题的流程其实非常简单,如下图所示:

在这里插入图片描述首先根据损失矩阵

  1. M
  2. M
  3. M定义一个分配矩阵
  4. P
  5. λ
  6. =
  7. e
  8. λ
  9. M
  10. P_{\lambda}=e^{-\lambda M}
  11. Pλ​=e−λM,然后进行迭代计算,每次迭代先将每一行的值进行归一化后乘以
  12. r
  13. \mathbf{r}
  14. r,也就是使得分配矩阵该行所有的值加起来正好为
  15. r
  16. \mathbf{r}
  17. r,例如该行表示苹果的分配情况,那么
  18. r
  19. =
  20. 2
  21. \mathbf{r}=2
  22. r=2。同理,对每列进行归一化后乘以
  23. C
  24. \mathbf{C}
  25. C,如此迭代直到收敛,收敛后的分配矩阵即我们最后的最优分配结果。我写了一个非常简单的测试程序如下:
  1. import numpy as np
  2. cost = np.array([[0,1,2],[2,0,1]], dtype=np.float)
  3. row_weight = np.array([2,1])
  4. col_weight = np.array([1,1,1])for _ inrange(100):
  5. cost = cost / np.sum(cost, axis=1).reshape(2,-1)* row_weight.reshape(2,-1)print(cost)
  6. cost = cost / np.sum(cost, axis=0).reshape(-1,3)* col_weight.reshape(-1,3)print(cost)

最后输出的结果为:

  1. [[0.1.0.99340351][1.0.0.00659649]]

很合理地,算法将苹果分给了更喜欢的小B和小C,而小A得到的是他最爱的梨子,这个算法流程其实非常简单,但是为什么会这样就能得到最优?什么情况下会不收敛?这些问题我暂时没有投入太多时间去深入了解,之后有时间再补上。

2.2 网络结构

下面我们结合代码一步一步解析SuperGlue的网络Pipeline是怎样得到Score矩阵

  1. S
  2. \mathbf{S}
  3. S以及SuperGlue算法针对遮挡、噪声等问题实现的一些Trick

假定有

  1. A
  2. B
  3. AB
  4. AB两张图像,分别检测出
  5. M
  6. M
  7. M
  8. N
  9. N
  10. N个特征点,分别记为
  11. A
  12. :
  13. =
  14. {
  15. 1
  16. ,
  17. ,
  18. M
  19. }
  20. \mathcal{A}:=\{1, \ldots, M\}
  21. A:={1,…,M}和
  22. B
  23. :
  24. =
  25. {
  26. 1
  27. ,
  28. ,
  29. N
  30. }
  31. \mathcal{B}:=\{1, \ldots, N\}
  32. B:={1,…,N},每个特征点由
  33. (
  34. p
  35. ,
  36. d
  37. )
  38. (\mathbf{p}, \mathbf{d})
  39. (p,d)表示,其中
  40. p
  41. i
  42. :
  43. =
  44. (
  45. x
  46. ,
  47. y
  48. ,
  49. c
  50. )
  51. i
  52. \mathbf{p}_{i}:=(x, y, c)_{i}
  53. pi​:=(x,y,c)i​为第
  54. i
  55. i
  56. i个特征点的(归一化后的)位置和置信度,
  57. d
  58. i
  59. R
  60. D
  61. \mathbf{d}_{i} \in \mathbb{R}^{D}
  62. di​∈RD为第
  63. i
  64. i
  65. i个特征点的特征向量。我们首先对输入网络的特征点和特征向量进行编码:
  66. (
  67. 0
  68. )
  69. x
  70. i
  71. =
  72. d
  73. i
  74. +
  75. M
  76. L
  77. P
  78. e
  79. n
  80. c
  81. (
  82. p
  83. i
  84. )
  85. { }^{(0)} \mathbf{x}_{i}=\mathbf{d}_{i}+\mathbf{M L P}_{\mathrm{enc}}\left(\mathbf{p}_{i}\right)
  86. (0)xi​=di​+MLPenc​(pi​)其作用就是特征点的位置和特征向量编码进同一个特征
  87. (
  88. 0
  89. )
  90. x
  91. i
  92. { }^{(0)} \mathbf{x}_{i}
  93. (0)xi​,使得网络在**进行匹配时能够同时考虑到特征描述和位置的相似性**,了解Transformer的同学应该想到这其实就是Transformer中普遍用的Positional Encoding。在代码中这个过程如下:
  1. self.kenc = KeypointEncoder(self.descriptor_dim, self.keypoint_encoder)
  1. desc0 = desc0 + self.kenc(kpts0, data['scores0'])
  2. desc1 = desc1 + self.kenc(kpts1, data['scores1'])
  1. classKeypointEncoder(torch.jit.ScriptModule):""" Joint encoding of visual appearance and location using MLPs"""def__init__(self, feature_dim, layers):super().__init__()
  2. self.encoder = MLP([3]+ layers +[feature_dim])
  3. nn.init.constant_(self.encoder[-1].bias,0.0)@torch.jit.script_methoddefforward(self, kpts, scores):
  4. inputs =[kpts.transpose(1,2), scores.unsqueeze(1)]# 注意这里将ScoreConcatenate进输入return self.encoder(torch.cat(inputs, dim=1))defMLP(channels:list, do_bn=True):""" Multi-layer perceptron """
  5. n =len(channels)
  6. layers =[]for i inrange(1, n):
  7. layers.append(
  8. nn.Conv1d(channels[i -1], channels[i], kernel_size=1, bias=True))if i <(n-1):if do_bn:
  9. layers.append(nn.BatchNorm1d(channels[i]))
  10. layers.append(nn.ReLU())return nn.Sequential(*layers)

接下来我们就是将特征

  1. (
  2. 0
  3. )
  4. x
  5. i
  6. { }^{(0)} \mathbf{x}_{i}
  7. (0)xi​输入进Attention Graph Neural Network,作者在这里定义了两种Graph,分别是连接特征点
  8. i
  9. i
  10. i和**同一张图像内的其他特征点**的无向图
  11. E
  12. self
  13. \mathcal{E}_{\text {self }}
  14. Eself ​以及连接特征点
  15. i
  16. i
  17. i与**另一张图像内的特征点**的无向图
  18. E
  19. cross
  20. \mathcal{E}_{\text {cross }}
  21. Ecross ​。我们通过Transformer计算特征点
  22. i
  23. i
  24. i与图
  25. E
  26. \mathcal{E}
  27. E的信息
  28. m
  29. E
  30. i
  31. \mathbf{m}_{\mathcal{E} \rightarrow i}
  32. mEi​,这个“信息”是原论文中"message"的直译,可以理解为通过Transformer提取的特征。信息
  33. m
  34. E
  35. i
  36. \mathbf{m}_{\mathcal{E} \rightarrow i}
  37. mEi​计算过程如下:
  38. m
  39. E
  40. i
  41. =
  42. j
  43. :
  44. (
  45. i
  46. ,
  47. j
  48. )
  49. E
  50. α
  51. i
  52. j
  53. v
  54. j
  55. \mathbf{m}_{\mathcal{E} \rightarrow i}=\sum_{j:(i, j) \in \mathcal{E}} \alpha_{i j} \mathbf{v}_{j}
  56. mEi​=j:(i,j)∈E∑​αijvj
  57. α
  58. i
  59. j
  60. =
  61. Softmax
  62. j
  63. (
  64. q
  65. i
  66. k
  67. j
  68. )
  69. \alpha_{i j}=\operatorname{Softmax}_{j}\left(\mathbf{q}_{i} \mathbf{k}_{j}\right)
  70. αij​=Softmaxj​(qikj​)其中,
  71. v
  72. j
  73. \mathbf{v}_{j}
  74. vj​、
  75. q
  76. i
  77. \mathbf{q}_{i}
  78. qi​、
  79. k
  80. j
  81. \mathbf{k}_{j}
  82. kj​分别为valuequerykey,计算过程如下:
  83. q
  84. i
  85. =
  86. W
  87. 1
  88. (
  89. )
  90. x
  91. i
  92. Q
  93. +
  94. b
  95. 1
  96. \mathbf{q}_{i}=\mathbf{W}_{1}{ }^{(\ell)} \mathbf{x}_{i}^{Q}+\mathbf{b}_{1}
  97. qi​=W1​(ℓ)xiQ​+b1
  98. [
  99. k
  100. j
  101. v
  102. j
  103. ]
  104. =
  105. [
  106. W
  107. 2
  108. W
  109. 3
  110. ]
  111. (
  112. )
  113. x
  114. j
  115. S
  116. +
  117. [
  118. b
  119. 2
  120. b
  121. 3
  122. ]
  123. \left[\begin{array}{l} \mathbf{k}_{j} \\ \mathbf{v}_{j} \end{array}\right]=\left[\begin{array}{l} \mathbf{W}_{2} \\ \mathbf{W}_{3} \end{array}\right]{ }^{(\ell)} \mathbf{x}_{j}^{S}+\left[\begin{array}{l} \mathbf{b}_{2} \\ \mathbf{b}_{3} \end{array}\right]
  124. [kjvj​​]=[W2W3​​](ℓ)xjS​+[b2b3​​]代码如下:
  1. self.attn = MultiHeadedAttention(num_heads, feature_dim)
  1. message = self.attn(x, source, source)
  1. classMultiHeadedAttention(torch.jit.ScriptModule):""" Multi-head attention to increase model expressivitiy """
  2. prob: List[torch.Tensor]def__init__(self, num_heads:int, d_model:int):super().__init__()assert d_model % num_heads ==0
  3. self.dim = d_model // num_heads
  4. self.num_heads = num_heads
  5. self.merge = nn.Conv1d(d_model, d_model, kernel_size=1)
  6. self.proj = nn.ModuleList([deepcopy(self.merge)for _ inrange(3)])# 对应不同的W
  7. self.prob =[]@torch.jit.script_methoddefforward(self, query, key, value):
  8. batch_dim = query.size(0)
  9. query, key, value =[l(x).view(batch_dim, self.dim, self.num_heads,-1)for l, x inzip(self.proj,(query, key, value))]# 通过卷积提取querykeyvalue
  10. x, prob = attention(query, key, value)# 进行attention计算
  11. self.prob.append(prob)return self.merge(x.contiguous().view(batch_dim, self.dim*self.num_heads,-1))# 合并多头结果defattention(query, key, value):
  12. dim = query.shape[1]
  13. scores = torch.einsum('bdhn,bdhm->bhnm', query, key)/ dim**.5
  14. prob = torch.nn.functional.softmax(scores, dim=-1)return torch.einsum('bhnm,bdhm->bdhn', prob, value), prob

得到信息

  1. m
  2. E
  3. i
  4. \mathbf{m}_{\mathcal{E} \rightarrow i}
  5. mEi​后,我们进一步更新特征:
  6. (
  7. +
  8. 1
  9. )
  10. x
  11. i
  12. A
  13. =
  14. (
  15. )
  16. x
  17. i
  18. A
  19. +
  20. MLP
  21. (
  22. [
  23. (
  24. )
  25. x
  26. i
  27. A
  28. m
  29. E
  30. i
  31. ]
  32. )
  33. { }^{(\ell+1)} \mathbf{x}_{i}^{A}={ }^{(\ell)} \mathbf{x}_{i}^{A}+\operatorname{MLP}\left(\left[(\ell) \mathbf{x}_{i}^{A} \| \mathbf{m}_{\mathcal{E} \rightarrow i}\right]\right)
  34. (ℓ+1)xiA​=(ℓ)xiA​+MLP([(ℓ)xiA​∥mEi​])其中
  35. (
  36. )
  37. x
  38. i
  39. A
  40. { }^{(\ell)} \mathbf{x}_{i}^{A}
  41. (ℓ)xiA​为第
  42. l
  43. l
  44. l 层图像
  45. A
  46. A
  47. A上特征点
  48. i
  49. i
  50. i对应的特征,
  51. [
  52. ]
  53. [\cdot \| \cdot]
  54. [⋅∥⋅]表示的Concatenate操作,值得注意的是,当
  55. l
  56. l
  57. l 为为奇数时计算的
  58. E
  59. self
  60. \mathcal{E}_{\text {self }}
  61. Eself ​的信息,而
  62. l
  63. l
  64. l 为偶数时计算的是
  65. E
  66. cross
  67. \mathcal{E}_{\text {cross }}
  68. Ecross ​的信息。这部分代码如下所示:
  1. desc0, desc1 = self.gnn(desc0, desc1)
  1. self.gnn = AttentionalGNN(self.descriptor_dim, self.GNN_layers)
  1. classAttentionalGNN(torch.jit.ScriptModule):def__init__(self, feature_dim:int, layer_names:list):super().__init__()
  2. self.layers = nn.ModuleList([
  3. AttentionalPropagation(feature_dim,4)for _ inrange(len(layer_names))])
  4. self.names = layer_names
  5. @torch.jit.script_methoddefforward(self, desc0, desc1):for i, layer inenumerate(self.layers):
  6. layer.attn.prob =[]if self.names[i]=='cross':
  7. src0, src1 = desc1, desc0
  8. else:# if name == 'self':
  9. src0, src1 = desc0, desc1
  10. delta0, delta1 = layer(desc0, src0), layer(desc1, src1)
  11. desc0, desc1 =(desc0 + delta0),(desc1 + delta1)# 这里相当于residual相加return desc0, desc1
  12. classAttentionalPropagation(torch.jit.ScriptModule):def__init__(self, feature_dim:int, num_heads:int):super().__init__()
  13. self.attn = MultiHeadedAttention(num_heads, feature_dim)
  14. self.mlp = MLP([feature_dim*2, feature_dim*2, feature_dim])
  15. nn.init.constant_(self.mlp[-1].bias,0.0)@torch.jit.script_methoddefforward(self, x, source):
  16. message = self.attn(x, source, source)return self.mlp(torch.cat([x, message], dim=1))# 这里就是上文公式对应的代码计算

这里反复迭代Self-/Cross-Attention的目的原论文指出是为了模拟人类进行匹配时来回浏览的过程,其实Self-Attention为了使得特征更加具备匹配的特异性,而Cross-Attention是为了这些具备特异性的点在图像间进行相似度比较。这个过程在原论文中作者有很好的可视化出来,如下图所示:
在这里插入图片描述
其中,绿色、蓝色和红色分别代表匹配简单、中等和困难的特征点,从左侧Self-Attention的可视化结果我们可以看出,在浅层时,特征点关联到了图像上所有的特征的,而随着网络层数的增加,Self-Attention逐渐收敛到和自己最相似的特征点(包括位置和特征描述),而Cross-Attention表现也是相同的,随着网络层数的增加逐渐收敛到正确匹配点。而且我们可以观察到,绿色的特征点更容易收敛,且关注的区域会随着网络的层数增加而减小

在完成Attention Graph Neural Network计算后,我们对所有特征点的特征进行一层MLP构建最终我们匹配用的Score矩阵

  1. S
  2. i
  3. ,
  4. j
  5. \mathbf{S}_{i, j}
  6. Si,j​:
  7. f
  8. i
  9. A
  10. =
  11. W
  12. (
  13. L
  14. )
  15. x
  16. i
  17. A
  18. +
  19. b
  20. ,
  21. i
  22. A
  23. \mathbf{f}_{i}^{A}=\mathbf{W} \cdot{ }^{(L)} \mathbf{x}_{i}^{A}+\mathbf{b}, \quad \forall i \in \mathcal{A}
  24. fiA​=W⋅(L)xiA​+b,∀iA
  25. f
  26. i
  27. B
  28. =
  29. W
  30. (
  31. L
  32. )
  33. x
  34. i
  35. B
  36. +
  37. b
  38. ,
  39. i
  40. B
  41. \mathbf{f}_{i}^{B}=\mathbf{W} \cdot{ }^{(L)} \mathbf{x}_{i}^{B}+\mathbf{b}, \quad \forall i \in \mathcal{B}
  42. fiB​=W⋅(L)xiB​+b,∀iB
  43. S
  44. i
  45. ,
  46. j
  47. =
  48. <
  49. f
  50. i
  51. A
  52. ,
  53. f
  54. j
  55. B
  56. >
  57. ,
  58. (
  59. i
  60. ,
  61. j
  62. )
  63. A
  64. ×
  65. B
  66. ,
  67. \mathbf{S}_{i, j}=<\mathbf{f}_{i}^{A}, \mathbf{f}_{j}^{B}>, \forall(i, j) \in \mathcal{A} \times \mathcal{B},
  68. Si,j​=<fiA​,fjB​>,∀(i,j)∈A×B,其中
  69. <
  70. ,
  71. >
  72. <·, ·>
  73. <⋅,⋅>为点乘操作,对应代码如下:
  1. # Final MLP projection.
  2. mdesc0, mdesc1 = self.final_proj(desc0), self.final_proj(desc1)# Compute matching descriptor distance.
  3. scores = torch.einsum('bdn,bdm->bnm', mdesc0, mdesc1)
  4. scores = scores / self.descriptor_dim**.5
  1. self.final_proj = nn.Conv1d(self.descriptor_dim, self.descriptor_dim, kernel_size=1, bias=True)

接下来就是对scores矩阵应用Sinkhorn算法:

  1. scores = log_optimal_transport(
  2. scores, self.bin_score,
  3. iters=self.config['sinkhorn_iterations'])
  1. deflog_sinkhorn_iterations(Z: torch.Tensor, log_mu: torch.Tensor, log_nu: torch.Tensor, iters:int)-> torch.Tensor:""" Perform Sinkhorn Normalization in Log-space for stability"""
  2. u, v = torch.zeros_like(log_mu), torch.zeros_like(log_nu)for _ inrange(iters):
  3. u = log_mu - torch.logsumexp(Z + v.unsqueeze(1), dim=2)
  4. v = log_nu - torch.logsumexp(Z + u.unsqueeze(2), dim=1)return Z + u.unsqueeze(2)+ v.unsqueeze(1)deflog_optimal_transport(scores: torch.Tensor, alpha: torch.Tensor, iters:int)-> torch.Tensor:""" Perform Differentiable Optimal Transport in Log-space for stability"""
  5. b, m, n = scores.shape
  6. one = scores.new_tensor(1)
  7. ms, ns =(m*one).to(scores),(n*one).to(scores)
  8. bins0 = alpha.expand(b, m,1)
  9. bins1 = alpha.expand(b,1, n)
  10. alpha = alpha.expand(b,1,1)
  11. couplings = torch.cat([torch.cat([scores, bins0],-1),
  12. torch.cat([bins1, alpha],-1)],1)
  13. norm =-(ms + ns).log()
  14. log_mu = torch.cat([norm.expand(m), ns.log()[None]+ norm])
  15. log_nu = torch.cat([norm.expand(n), ms.log()[None]+ norm])
  16. log_mu, log_nu = log_mu[None].expand(b,-1), log_nu[None].expand(b,-1)
  17. Z = log_sinkhorn_iterations(couplings, log_mu, log_nu, iters)
  18. Z = Z - norm # multiply probabilities by M+Nreturn Z

Sinkhorn算法原理在上文中已经介绍过,这里值得注意的一点是算法针对特征匹配失败问题的处理Trick,文章中特别由提到这一部分,如果不考虑特征点匹配失败的情况,那么我们得到的分配矩阵

  1. P
  2. [
  3. 0
  4. ,
  5. 1
  6. ]
  7. M
  8. ×
  9. N
  10. \mathbf{P} \in[0,1]^{M \times N}
  11. P∈[0,1]M×N应该满足:
  12. P
  13. 1
  14. N
  15. 1
  16. M
  17. and
  18. P
  19. 1
  20. M
  21. 1
  22. N
  23. \mathbf{P} \mathbf{1}_{N} \leq \mathbf{1}_{M} \quad \text { and } \quad \mathbf{P}^{\top} \mathbf{1}_{M} \leq \mathbf{1}_{N}
  24. P1N​≤1M and P1M​≤1N​其中待分配向量
  25. 1
  26. M
  27. \mathbf{1}_{M}
  28. 1M​和
  29. 1
  30. N
  31. \mathbf{1}_{N}
  32. 1N​分别为长度为
  33. M
  34. M
  35. M
  36. N
  37. N
  38. N,元素值为
  39. 1
  40. 1
  41. 1的向量。为了求得分配矩阵
  42. P
  43. \mathbf{P}
  44. P,我们是通过计算得分矩阵
  45. S
  46. R
  47. M
  48. ×
  49. N
  50. \mathbf{S} \in \mathbb{R}^{M \times N}
  51. SRM×N获得,但是由于真实环境中存在遮挡或者噪声,总会有特征点匹配不上的情况,为此,作者在得分矩阵添加一行和一列作为Dustbin
  52. S
  53. i
  54. ,
  55. N
  56. +
  57. 1
  58. =
  59. S
  60. M
  61. +
  62. 1
  63. ,
  64. j
  65. =
  66. S
  67. M
  68. +
  69. 1
  70. ,
  71. N
  72. +
  73. 1
  74. =
  75. z
  76. R
  77. \overline{\mathbf{S}}_{i, N+1}=\overline{\mathbf{S}}_{M+1, j}=\overline{\mathbf{S}}_{M+1, N+1}=z \in \mathbb{R}
  78. Si,N+1​=SM+1,j​=SM+1,N+1​=zR此时,待分配向量拓展为
  79. a
  80. =
  81. [
  82. 1
  83. M
  84. N
  85. ]
  86. \mathbf{a}=\left[\begin{array}{ll}\mathbf{1}_{M}^{\top} & N\end{array}\right]^{\top}
  87. a=[1M⊤​​N​]⊤和
  88. b
  89. =
  90. [
  91. 1
  92. N
  93. M
  94. ]
  95. \mathbf{b}=\left[\begin{array}{ll}\mathbf{1}_{N}^{\top} & M\end{array}\right]^{\top}
  96. b=[1N⊤​​M​]⊤,且分配矩阵满足:
  97. P
  98. 1
  99. N
  100. +
  101. 1
  102. =
  103. a
  104. and
  105. P
  106. 1
  107. M
  108. +
  109. 1
  110. =
  111. b
  112. \overline{\mathbf{P}} \mathbf{1}_{N+1}=\mathbf{a} \quad \text { and } \quad \overline{\mathbf{P}}^{\top} \mathbf{1}_{M+1}=\mathbf{b}
  113. P1N+1​=a and P1M+1​=b其实这也很好理解,对于待匹配点,要求其最多只能与另一个匹配点匹配,但是对于Dustbin,最多能够
  114. M
  115. M
  116. M或者
  117. N
  118. N
  119. N个匹配点与之对应,也就是说最坏的情况就是所有的匹配点都没有匹配上。

2.3 损失函数和网络训练

SuperGlue的损失函数如下所示:

  1. Loss
  2. =
  3. (
  4. i
  5. ,
  6. j
  7. )
  8. M
  9. log
  10. P
  11. i
  12. ,
  13. j
  14. i
  15. I
  16. log
  17. P
  18. i
  19. ,
  20. N
  21. +
  22. 1
  23. j
  24. J
  25. log
  26. P
  27. M
  28. +
  29. 1
  30. ,
  31. j
  32. \begin{aligned} \text { Loss }=&-\sum_{(i, j) \in \mathcal{M}} \log \overline{\mathbf{P}}_{i, j} -\sum_{i \in \mathcal{I}} \log \overline{\mathbf{P}}_{i, N+1}-\sum_{j \in \mathcal{J}} \log \overline{\mathbf{P}}_{M+1, j} \end{aligned}
  33. Loss =​−(i,j)∈M∑​logPi,j​−iI∑​logPi,N+1​−jJ∑​logPM+1,j​​其中
  34. M
  35. =
  36. {
  37. (
  38. i
  39. ,
  40. j
  41. )
  42. }
  43. A
  44. ×
  45. B
  46. \mathcal{M}=\{(i, j)\} \subset \mathcal{A} \times \mathcal{B}
  47. M={(i,j)}⊂A×B为匹配点的真值,
  48. I
  49. A
  50. \mathcal{I} \subseteq \mathcal{A}
  51. IA
  52. J
  53. B
  54. \mathcal{J} \subseteq \mathcal{B}
  55. JB为图像
  56. A
  57. A
  58. A
  59. B
  60. B
  61. B中没有匹配上的特征点。

关于网络的训练文章在论文的附录中有提到:
(1)基于带有Depth和位姿真值的数据集获取真值,基本方法是通过使用SuperPoint或者SIFT分别在已知位姿的两张图像进行特诊检测,根据Depth将一张图像的特征点投影到另一张图像上,通过重投影误差判断哪些点是匹配成功的点作为真值的正样本。对于负样本,也就是没有匹配上的点,要求重投影误差大于一定的值。
(2)SuperGlue对Indoor、Outdoor和Homograpy变换场景分别训练,Indoor、Outdoor场景训练使用Homograpy变换的模型作为处置。
(3)SuperGlue和SuperPoint的联合训练中,分别使用了两个SuperPoint网络分别进行检测和特征提取的工作,在训练过程中,检测部分的网络权重锁住,只训练特征提取部分的网络。

以上就完成SuperPoint和SuperGlue的总结,除了SuperPoint和SuperGlue,这两年使用NN做特征匹配的方法也有不少,比如:

《OpenGlue: Open Source Graph Neural Net Based Pipeline for Image Matching》
匹配速度更快;

《LoFTR: Detector-Free Local Feature Matching with Transformers》
无特征匹配,对于若纹理区域效果特别好;

《MatchFormer: Interleaving Attention in Transformers for Feature Matching》
改进的LoFTR, 将Attention引入特征编码阶段,大幅度提升特征匹配在大视角变化时的匹配性能

这些算法之后有时间可以再整理下,有问题欢迎交流~


本文转载自: https://blog.csdn.net/weixin_44580210/article/details/122284145
版权归原作者 Leo-Peng 所有, 如有侵权,请联系我们删除。

“视觉SLAM总结——SuperPoint / SuperGlue”的评论:

还没有评论