0


【半监督医学图像分割 2022 CVPR】S4CVnet 论文翻译

文章目录

【半监督医学图像分割 2022 CVPR】S4CVnet

论文题目:When CNN Meet with ViT: Towards Semi-Supervised Learning for Multi-Class Medical Image Semantic Segmentation

中文题目:当CNN与ViT会面时:多类医学图像语义分割的半监督学习方法

论文链接:https://arxiv.org/abs/2208.06449

论文代码:https://github.com/ziyangwang007/CV-SSL-MIS

论文翻译:https://blog.csdn.net/wujing1_1/article/details/128620158

发表时间:2022年8月

团队:牛津大学计算机科学系&牛津大学肯尼迪风湿病研究所&伦敦帝国理工学院外科

引用:Wang Z, Li T, Zheng J Q, et al. When CNN Meet with ViT: Towards Semi-Supervised Learning for Multi-Class Medical Image Semantic Segmentation[J]. arXiv preprint arXiv:2208.06449, 2022.

引用数:1(截止时间:2023年1月6号)

image-20230106155931548

摘要

由于医学图像领域缺乏高质量的标注,半监督学习方法在语义分割中受到了高度重视。

为了充分利用视觉变换器(ViT)和卷积神经网络(CNN)在半监督学习中的优势,提出了一种改进的基于一致性感知伪标签的自集成方法。

我们提出的框架包括一个由ViT和CNN共同增强的特征学习模块和一个鲁棒的一致性感知指导模块。

在特征学习模块中,从CNN和ViT的角度分别递归地推断和利用伪标签,以扩展数据集,并使伪标签相互受益。

同时,为特征学习模块设计了扰动方案,并利用平均网络权值的方法开发了制导模块。

该框架结合了CNN和ViT的特征学习能力,通过双视角协同训练增强了性能,并以半监督的方式实现了一致性感知监督。

详细验证了CNN和ViT的所有替代监督模式的拓扑探索,展示了我们的方法在半监督医学图像分割任务上最有前途的性能和具体设置。实验结果表明,该方法在具有多种度量标准的公共基准数据集上取得了较好的性能。

该代码是公开的。

1. 介绍

医学图像分割是计算机视觉和医学图像分析领域的重要课题,近年来,深度学习方法在医学图像分割领域占据主导地位。当前深度学习研究有希望的结果,不仅依赖于CNN的架构工程[28,34,9,43],还依赖于对数据集进行足够的高质量注释[2,13,48,11]。然而,临床医学图像数据最常见的情况是少量标记数据和大量原始图像,如CT、超声、MRI和腹腔镜手术的视频[30,17,44,47]。在最近的神经网络体系结构工程研究中,单纯基于自我注意的Transformer[40]由于能够对远程依赖进行建模,其性能优于CNN和RNN[27,13]。

在最近的神经网络体系结构工程研究中,单纯基于自我注意的Transformer[40]由于能够对远程依赖进行建模,其性能优于CNN和RNN[27,13]。基于以上对数据情况的关注,以及最近网络架构工程的成功,我们在此提出了一个旨在同时充分利用CNN和ViT的功能的半监督医学图像语义分割框架,称为

  1. S4CVnet

S4CVnet的框架由一个

  1. 特征学习模块

  1. 一个引导模块

组成,图1简要描述了这两个模块。

该设置受到student-teacher style框架[15,39,48]的启发,对学生网络施加扰动,通过指数移动平均(EMA)[26]更新教师网络的参数,使得教师网络具有很强的鲁棒性,从而在一致性感知关注下指导带有伪标签的学生网络的学习。

为了同时利用CNN和ViT的特征学习能力,避免两个网络架构不同造成的障碍,我们在特征学习模块中提出了

  1. 双视图联合训练方法

[47,10]。两种不同的网络视图同时推断伪标签,用原始数据扩大数据集的规模,在训练过程中相互补充、相互受益。

一个特征学习网络也被认为是一个桥梁,应用网络扰动和通过学生-教师风格的方案学习知识的转移。

以下是S4CVnet的贡献

  • 为了充分利用CNN和ViT的特征学习能力,提出了一种增强型双视图协同训练模块。CNN和ViT都具有相同的u型编码器-解码器风格的分割网络,以便进行公平的比较和探索
  • 提出了一种基于计算高效u型ViT的鲁棒制导模块,并设计了一种基于EMA的一致性感知师生式方法。
  • 提出了一种先进的半监督多类医学图像语义分割框架,在公共基准数据集上使用各种评估指标进行评估,并在相同的设置和特征信息分布下,与其他半监督方法保持最佳状态[39,52,41,42,51,45,32,30,47,48],
  • 通过对CNN和ViT的所有替代监督模式的拓扑探索研究以及烧蚀研究,验证了以半监督方式利用CNN和ViT的全貌,并证明了S4CVnet最合适的设置和有前途的性能。

2. 相关工作

语义分割

卷积神经网络(convolutional neural network, CNN)用于图像语义分割,作为一种密集预测任务,自2015年开始被广泛研究,即FCN[28]。这是第一个以监督方式训练的基于cnn的网络,用于像素到像素的预测任务。随后的分割研究以CNN为主,主要有三个方面的贡献:骨干网、网络块和训练策略。例如,最有前途的骨干网络之一是UNet[34],它是一种具有跳过连接的编码器-解码器风格的网络,可以有效地传输多尺度语义信息。注意机制[35,24]、剩余学习[16]、密集连接[18]、扩张CNN[8]等多种进一步提高CNN性能的高级网络块被应用到骨干网络UNet中,形成了UNet族[21,44,46,23]。然而,在最近的研究中,用于密集预测任务的CNN缺乏对长期依赖关系建模的能力,被源自自然语言处理[40]的纯自注意网络Transformer击败。Transformer在计算机视觉任务中被广泛探索,即视觉变压器(ViT)[13],围绕分类、检测和分割任务[27,38,6,4]。本文在主干方面,重点探讨了CNN和ViT同时的特征学习能力,使两者相互有益,并具体解决了基于多视图协同训练自集成方法的半监督密集预测任务

半监督语义分割

除了骨干网络和网络块的研究外,根据数据集的不同场景,训练策略也是必不可少的研究,如处理低质量注释的弱监督学习[53,5,36],噪声注释[44],多评级者注释[25],多质量注释[33]的混合监督学习。

医学影像数据最常见的情况是标记数据量小,原始数据量大,因为标记成本高,因此半监督学习具有重要的探索价值。联合训练和自我训练是半监督学习中被广泛研究的两种方法。

自我训练,也称为自标记,是首先用标记的数据初始化一个分割网络。然后通过分割网络对未标记数据生成伪分割掩码[50,7,20,54,31,29]。设定伪分割掩码的选择条件,通过多次扩展训练数据对分割网络进行再训练。基于gan的方法主要研究如何使用判别器学习设置条件来区分预测和ground-truth分割[19,37]。另一种方法是联合训练,通常是将两个独立的网络训练为两个视图。因此,这两个网络扩大了训练数据的规模,并相互补充。深度联合训练在[32]中首次提出,指出了利用单一数据集(即“崩溃神经网络”)进行联合训练的挑战。在同一数据集上训练两个网络不能实现多视图特征学习,因为两个网络最终必然是相似的。

基于分歧的三网(trinet)提出了三视图,并通过“视图差异”对伪标签编辑的多样性增强进行改进,以解决“崩溃神经网络”[12,45]。不确定性估计也是一种能够利用可靠的伪标签来训练其他视图的方法[49,48,10]。

目前Co-training的重点研究主要集中在:(a)实现两种观点的多样性;(b)为再培训网络正确/自信地生成伪标签。在本文的训练策略方面,我们在特征学习模块中采用了两个完全不同的分割网络来鼓励两个视图之间的差异。此外,受学生-教师风格方法[39,26]的启发,开发了基于vitc的指导模块,该模块借助摄动和平均模型权重的特征学习模块[26,14],具有更强的鲁棒性。在整个半监督过程中,引导模块能够通过伪标签对特征学习模块的两个网络进行自信而恰当的监督。

3. 方法

在用于图像分割任务的一般半监督学习中,

  1. L
  2. ,
  3. U
  4. \mathbf{L}, \mathbf{U}
  5. L,U
  6. T
  7. \mathbf{T}
  8. T通常表示少量有
  1. 标记的数据

  1. 大量无标记的数据

,以及一个

  1. 测试数据集

对于带标签的训练和测试数据。我们将一批有标记的数据记为

  1. (
  2. X
  3. l
  4. ,
  5. Y
  6. g
  7. t
  8. )
  9. L
  10. ,
  11. (
  12. X
  13. t
  14. ,
  15. Y
  16. g
  17. t
  18. )
  19. T
  20. \left(\boldsymbol{X}_{\mathrm{l}}, \boldsymbol{Y}_{\mathrm{gt}}\right) \in \mathbf{L},\left(\boldsymbol{X}_{\mathrm{t}},\boldsymbol{Y}_{\mathrm{gt}}\right) \in \mathbf{T}
  21. (Xl​,Ygt​)∈L,(Xt​,Ygt​)∈T

将一批只有原始数据的数据记为

  1. (
  2. X
  3. u
  4. )
  5. U
  6. \left(\boldsymbol{X}_{\mathrm{u}}\right) \in \mathbf{U}
  7. (Xu​)∈U,其中
  8. X
  9. R
  10. h
  11. ×
  12. w
  13. \boldsymbol{X} \in \mathbb{R}^{h \times w}
  14. XRh×w表示二维灰度图像。
  15. Y
  16. p
  17. \boldsymbol{Y}_{\mathrm{p}}
  18. Yp​是分割网络
  19. f
  20. (
  21. θ
  22. )
  23. :
  24. X
  25. Y
  26. p
  27. f(θ):\boldsymbol{X} \mapsto \boldsymbol{Y}_{\mathrm{p}}
  28. f(θ):XYp​以
  29. θ
  30. \theta
  31. θ为网络
  32. f
  33. f
  34. f的参数所预测的
  1. 稠密映射

  1. Y
  2. p
  3. \boldsymbol{Y}_{\mathrm{p}}
  4. Yp​可以看作是对未标记数据
  5. (
  6. X
  7. u
  8. ,
  9. Y
  10. p
  11. )
  12. U
  13. \left(\boldsymbol{X}_{\mathrm{u}},\boldsymbol{Y}_{\mathrm{p}}\right) \in \mathbf{U}
  14. (Xu​,Yp​)∈U的一批伪标签,用于再训练网络。

根据

  1. T
  2. \mathbf{T}
  3. T
  4. Y
  5. g
  6. t
  7. \boldsymbol{Y}_{\mathrm{gt}}
  8. Ygt​和
  9. Y
  10. p
  11. \boldsymbol{Y}_{\mathrm{p}}
  12. Yp​的差值计算最终评价结果。

S4CVnet框架的训练是根据每个网络分别与

  1. Y
  2. p
  3. \boldsymbol{Y}_{\mathrm{p}}
  4. Yp​和
  5. Y
  6. g
  7. t
  8. \boldsymbol{Y}_{\mathrm{gt}}
  9. Ygt​的推理差,最小化监督损失
  10. L
  11. o
  12. s
  13. s
  14. s
  15. u
  16. p
  17. Loss_{\mathrm{sup}}
  18. Losssup​和半监督损失
  19. L
  20. o
  21. s
  22. s
  23. s
  24. e
  25. m
  26. i
  27. Loss_{\mathrm{semi}}
  28. Losssemi​的总和。在我们的研究中,
  29. L
  30. ,
  31. U
  32. \mathbf{L}, \mathbf{U}
  33. L,U
  34. T
  35. \mathbf{T}
  36. T没有重叠。

S4CVnet的框架如

  1. 1

所示,由一个特征学习模块和一个基于三个网络

  1. f
  2. f
  3. f的引导模块组成,即一个基于CNN的网络
  4. f
  5. C
  6. N
  7. N
  8. (
  9. θ
  10. )
  11. f_{\mathrm{CNN}}(\theta)
  12. fCNN​(θ)和两个基于vit的网络
  13. f
  14. V
  15. i
  16. T
  17. (
  18. θ
  19. )
  20. f_{\mathrm{ViT}}(\theta)
  21. fViT​(θ)。

特征学习模块各网络的

  1. θ
  2. \theta
  3. θ分别初始化,以促进两种学习观点的差异,引导模块的
  4. θ
  5. \theta
  6. θ通过EMA从具有相同结构的特征学习网络中更新。

S4CVnet的最终推理被认为是制导模块

  1. f
  2. V
  3. i
  4. T
  5. (
  6. θ
  7. ˉ
  8. )
  9. :
  10. X
  11. Y
  12. f_{\mathrm{ViT}}(\bar{\theta}): \boldsymbol{X} \mapsto \boldsymbol{Y}
  13. fViT​(θˉ):XY的输出。

CNN和ViT网络、特征学习模块和引导模块的细节分别在下面的3.1节、3.2节和3.3节讨论。

image-20230109151755473

图1所示。S4CVnet的框架。它是一种融合了CNN和ViT功能的半监督医学图像语义分割框架,由特征学习模块(CNN & ViT)和引导模块(ViT)组成。监督机制通过最小化预测和(伪)标签之间的差异(也称为损失)来说明。

3.1 CNN & ViT

为了比较、分析和探索CNN和ViT的特征学习能力,我们提出了一种u型编码器-解码器风格的多类医学图像语义分割网络,该网络可以分别用纯CNN网络块或ViT网络块构建。

在U-Net[34]跳过连接成功的激励下,我们首先提出了一个u型分割网络,由4个编码器和解码器通过跳过连接连接,如图2 (a)所示。

通过图2 (b)所示的网络块替换编码器和解码器,可以直接构建一个纯CNN或ViT分割网络。在每个基于CNN的块中,在此基础上,开发了两个

  1. 3
  2. ×
  3. 3
  4. 3\times 3
  5. 3×3卷积层和两个批量归一化[22]。

基于vit的块基于swing - transformer块[27],没有进一步的修改[6,4]。

与传统的变压器块[13]不同,利用shiftwindow开发了层归一化LN[1]、多头自注意、残差连接[16]、带GELU的MLP,得到了基于窗口的多头自注意(WMSA)和基于移位窗口的多头自注意(SWMSA)。

WMSA和SWMSA分别应用于图2 (b)上方所示的两个连续变压器块。通过基于自注意的WMSA、SWMSA、MLP进行ViT特征学习的数据管道细节总结在公式1、2、3、4、5中,其中

  1. i
  2. 1
  3. L
  4. i\in 1\cdots L
  5. i1L,
  6. L
  7. L
  8. L为块数。

自注意机制包括三个点状线性层,将标记映射到中间表示:查询Q、键K和值V,在公式5中介绍。

这样,变压器块将输入序列

  1. Z
  2. 0
  3. =
  4. [
  5. z
  6. L
  7. ,
  8. 1
  9. ,
  10. ,
  11. z
  12. L
  13. ,
  14. N
  15. ]
  16. \boldsymbol{Z}_{0}=\left[z_{L, 1}, \ldots, z_{L, N}\right]
  17. Z0​=[zL,1​,…,zL,N​]位置映射到
  18. Z
  19. L
  20. =
  21. [
  22. z
  23. L
  24. ,
  25. 1
  26. ,
  27. ,
  28. z
  29. L
  30. ,
  31. N
  32. ]
  33. \boldsymbol{Z}_{L}=\left[z_{L, 1}, \ldots, z_{L, N}\right]
  34. ZL​=[zL,1​,…,zL,N​],充分的语义特征信息(全局依赖关系)通过基于ViT的块进行充分的提取和收集。
  35. Z
  36. i
  37. 1
  38. =
  39. WMSA
  40. (
  41. LN
  42. (
  43. Z
  44. i
  45. 1
  46. )
  47. )
  48. +
  49. Z
  50. i
  51. 1
  52. Z
  53. i
  54. =
  55. MLP
  56. (
  57. LN
  58. (
  59. Z
  60. i
  61. )
  62. )
  63. +
  64. Z
  65. i
  66. Z
  67. i
  68. +
  69. 1
  70. =
  71. SWMSA
  72. (
  73. LN
  74. (
  75. Z
  76. i
  77. )
  78. )
  79. +
  80. Z
  81. i
  82. Z
  83. i
  84. +
  85. 1
  86. =
  87. MLP
  88. (
  89. LN
  90. (
  91. Z
  92. i
  93. +
  94. 1
  95. )
  96. )
  97. +
  98. Z
  99. i
  100. +
  101. 1
  102. MSA
  103. (
  104. Z
  105. )
  106. =
  107. softmax
  108. (
  109. Q
  110. K
  111. D
  112. )
  113. V
  114. \begin{gathered} \boldsymbol{Z}_{i-1}=\operatorname{WMSA}\left(\operatorname{LN}\left(\boldsymbol{Z}_{i-1}\right)\right)+\boldsymbol{Z}_{i-1} \\ \boldsymbol{Z}_i=\operatorname{MLP}\left(\operatorname{LN}\left(\boldsymbol{Z}_i\right)\right)+\boldsymbol{Z}_i \\ \boldsymbol{Z}_{i+1}=\operatorname{SWMSA}\left(\operatorname{LN}\left(\boldsymbol{Z}_i\right)\right)+\boldsymbol{Z}_i \\ \boldsymbol{Z}_{i+1}=\operatorname{MLP}\left(\operatorname{LN}\left(\boldsymbol{Z}_{i+1}\right)\right)+\boldsymbol{Z}_{i+1} \\ \operatorname{MSA}\left(\boldsymbol{Z}^{\prime}\right)=\operatorname{softmax}\left(\frac{\boldsymbol{Q} \boldsymbol{K}}{\sqrt{D}}\right) \boldsymbol{V} \end{gathered}
  115. Zi1​=WMSA(LN(Zi1​))+Zi1Zi​=MLP(LN(Zi​))+ZiZi+1​=SWMSA(LN(Zi​))+ZiZi+1​=MLP(LN(Zi+1​))+Zi+1MSA(Z′)=softmax(DQK​)V

其中

  1. Q
  2. ,
  3. K
  4. ,
  5. V
  6. R
  7. M
  8. 2
  9. ×
  10. d
  11. \boldsymbol{Q}, \boldsymbol{K}, \boldsymbol{V} \in \mathbb{R}^{M^2 \times d}
  12. Q,K,VRM2×d,
  13. M
  14. 2
  15. M^2
  16. M2表示窗口中的补丁数量,d为查询和键的维度。

image-20230109151843128

图2所示。主干分割网络。

(a,c)基于u型cnn或基于vit的编码器-解码器风格的分割网络,

(b,d)纯基于cnn或基于vit的网络块。这两个网络块可以直接应用于u形编码器解码器网络,从而形成一个纯粹的基于CNN或vv的分割网络。

与传统的基于cnn的区块在每个编码器或解码器之间进行下采样和上采样不同,在每个基于vit的编码器或解码器之间分别设计合并层和扩展层[6,4]。

  1. 合并层(patch merging)

的设计目的是减少2倍的令牌数量,增加2倍的特征维度。它将输入补丁分为4个部分,并将它们连接在一起。应用线性层将尺寸统一为2倍。

  1. 扩展层(patch expanding)

设计用于将输入特征图的尺寸重塑为2倍大,并将特征维减小到输入特征图维的一半。它采用线性层增加特征维数,然后采用重排操作扩大特征维数,将特征维数减小到输入维数的四分之一。

图2 (A)简要说明了每个步骤中特征映射的大小,其中W、H、C表示特征映射的宽度、高度和通道维度。

为了使ViT与CNN具有相同的计算效率,便于公平比较和互补,我们提出了这样的设置:patch大小为4,输入通道为3,嵌入式维数为96,自注意头数为3,6,12,24,窗口大小为7,每个编码器/解码器有2个基于swin-transformer的块,并使用ImageNet[11]预训练ViT。关于CNN和ViT骨干网的详细信息请参见附录。

3.2 特征学习模块

半监督学习,特别是基于伪标签的方法,已经在图像分割中得到了研究[3,32,12]。它将来自一个网络的未标记数据的分割推理作为伪标签来重新训练另一个网络,即多视图联合训练方法[15,30]。

交叉伪标签监督[10]有两个网络

  1. f
  2. (
  3. θ
  4. 1
  5. )
  6. f(\theta_1)
  7. f1​),
  8. f
  9. (
  10. θ
  11. 2
  12. )
  13. f(\theta_2)
  14. f2​)具有相同的架构,但分别初始化以鼓励双重观点的差异,受其最近成功的激励,我们进一步提出了一个特征学习模块,旨在相互探索ViTCNN的力量。

除了两个网络的参数当然是分开初始化外,还设计了

  1. f
  2. C
  3. N
  4. N
  5. (
  6. θ
  7. 1
  8. )
  9. ,
  10. f
  11. V
  12. i
  13. T
  14. (
  15. θ
  16. 2
  17. )
  18. f_{\mathrm{CNN}}(\theta_1),f_{\mathrm{ViT}}(\theta_2)
  19. fCNN​(θ1​),fViT​(θ2​)两个完全不同的网络架构,通过多视图学习使彼此受益,从而提高双视图学习的性能。本文提出的用于生成伪标签的特征学习模块如下图所示:
  20. P
  21. 1
  22. =
  23. f
  24. C
  25. N
  26. N
  27. (
  28. X
  29. ;
  30. θ
  31. 1
  32. )
  33. ,
  34. P
  35. 2
  36. =
  37. f
  38. V
  39. i
  40. T
  41. (
  42. X
  43. ;
  44. θ
  45. 2
  46. )
  47. P_1=f_{\mathrm{CNN}}\left(X ; \theta_1\right), P_2=f_{\mathrm{ViT}}\left(X ; \theta_2\right)
  48. P1​=fCNN​(X1​),P2​=fViT​(X2​)

其中

  1. θ
  2. 1
  3. ,
  4. θ
  5. 2
  6. \theta_1,\theta_2
  7. θ1​,θ2​分别表示网络初始化,
  8. P
  9. 1
  10. ,
  11. P
  12. 2
  13. P_1,P_2
  14. P1​,P2​分别表示用
  15. f
  16. C
  17. N
  18. N
  19. (
  20. θ
  21. 1
  22. )
  23. ,
  24. f
  25. V
  26. i
  27. T
  28. (
  29. θ
  30. 2
  31. )
  32. f_{\mathrm{CNN}}(\theta_1),f_{\mathrm{ViT}}(\theta_2)
  33. fCNN​(θ1​),fViT​(θ2​)进行分割推断。然后利用基于
  34. P
  35. 1
  36. ,
  37. P
  38. 2
  39. P_1,P_2
  40. P1​,P2​的伪标签进行监督和互补。CNN主要基于局部卷积运算,而ViT是通过自注意[13]对特征的全局依赖进行建模,因此两个分割推论
  41. P
  42. 1
  43. ,
  44. P
  45. 2
  46. P_1,P_2
  47. P1​,P2​具有不同的预测性质,并且没有明确的约束来强制两个相似的推论。同时互补的监督细节(ViTCNN的更新参数)在3.4节中讨论。

3.3 引导模块

除了特征学习模块使两个网络能够从数据中学习外,还在一致性意识的考虑下设计了一个健壮的指导模块,以提高性能,并作为S4CVnet评估的最终模块。

引导网络的设计灵感来自于temporal ensembling[26]和self ensembling[39],目的是进一步监督被扰动的网络,最小化不一致性。在训练过程中,首先对特征学习模块中的网络进行扰动。其次,采用反向迭代的方法对网络参数进行迭代更新。然后通过特征学习模块的指数移动平均(EMA)对制导模块的网络进行更新。最后,一个比特征学习网络更健壮、更有可能正确的指导模块,用于监督两个具有一致性关注的特征学习网络。在S4CVnet中,引导模块基于与特征学习网络中的ViT具有相同架构的ViT,通过从数据[26]中学习ViT网络参数的EMA来不断更新引导ViT。本文提出的生成伪标签的指导模块可以说明为:

  1. P
  2. 3
  3. =
  4. f
  5. V
  6. i
  7. T
  8. (
  9. X
  10. ;
  11. θ
  12. )
  13. P_3=f_{\mathrm{ViT}}(X;\overline{\theta})
  14. P3​=fViT​(X;θ)

其中

  1. θ
  2. \theta
  3. θ表明网络ViT是基于平均网络权重,而不是直接由数据训练。
  4. θ
  5. \theta
  6. θ根据特征学习 ViT模型的参数
  7. θ
  8. t
  9. \theta_t
  10. θt​在过去的训练步骤t上进行更新,可以表示为
  11. θ
  12. =
  13. α
  14. θ
  15. t
  16. 1
  17. +
  18. (
  19. 1
  20. α
  21. )
  22. θ
  23. t
  24. \overline{\theta}=\alpha\theta_{t-1}+(1-\alpha)\theta_t
  25. θ=αθt1​+(1−α)θt​。
  26. α
  27. \alpha
  28. α是一个权重因子,计算公式为
  29. α
  30. =
  31. 1
  32. 1
  33. t
  34. +
  35. 1
  36. \alpha=1-\frac{1}{t+1}
  37. α=1t+11​。
  38. P
  39. 3
  40. P_3
  41. P3​表示
  42. f
  43. V
  44. i
  45. T
  46. (
  47. θ
  48. )
  49. f_{\mathrm{ViT}}(\overline{\theta})
  50. fViT​(θ)的分割推理,用于监督特征学习模块遵循一致性意识的关注。通过引导模块对特征学习ViTCNN的监督细节在章节3.4中讨论。

3.4 目标

训练目标是使三个网络

  1. f
  2. C
  3. N
  4. N
  5. (
  6. θ
  7. 1
  8. )
  9. ,
  10. f
  11. V
  12. i
  13. T
  14. (
  15. θ
  16. 2
  17. )
  18. f_{\mathrm{CNN}}(\theta_1),f_{\mathrm{ViT}}(\theta_2)
  19. fCNN​(θ1​),fViT​(θ2​)和
  20. f
  21. V
  22. i
  23. T
  24. (
  25. θ
  26. )
  27. f_{\mathrm{ViT}}(\overline{\theta})
  28. fViT​(θ)之间的监督损失
  29. L
  30. s
  31. u
  32. p
  33. \mathcal{L}_{\mathrm{sup}}
  34. Lsup​和半监督
  35. L
  36. s
  37. e
  38. m
  39. i
  40. \mathcal{L}_{\mathrm{semi}}
  41. Lsemi​的总和最小化,因此在训练过程中优化S4CVnet的总体损失如式8所示:
  42. L
  43. =
  44. L
  45. sup
  46. 1
  47. +
  48. L
  49. sup
  50. 2
  51. +
  52. λ
  53. 1
  54. (
  55. L
  56. semi
  57. 1
  58. +
  59. L
  60. semi
  61. 2
  62. )
  63. +
  64. λ
  65. 2
  66. (
  67. L
  68. semi
  69. 3
  70. +
  71. L
  72. semi
  73. 4
  74. )
  75. \mathcal{L}=\mathcal{L}_{\text {sup} 1}+\mathcal{L}_{\text {sup} 2}+\lambda_1\left(\mathcal{L}_{\text {semi } 1}+\mathcal{L}_{\text {semi } 2}\right)+\lambda_2\left(\mathcal{L}_{\text {semi }3}+\mathcal{L}_{\text {semi } 4}\right)
  76. L=Lsup1​+Lsup2​+λ1​(Lsemi 1​+Lsemi 2​)+λ2​(Lsemi 3​+Lsemi 4​)

其中,

  1. λ
  2. 1
  3. ,
  4. λ
  5. 2
  6. \lambda_1,\lambda_2
  7. λ1​,λ2​为交叉监督双视图损失和一致性感知损失的权重因子,每150次迭代[26]更新一次。这是一个权衡权重,在训练过程中不断增加,使S4CVnet在初始化时关注有标签的数据,然后用我们提出的半监督方法将焦点转移到无标签的数据。这是在S4CVnet能够逐步推断出很多可靠伪标签的假设下做出的。权重因子如式9所示。
  8. λ
  9. =
  10. e
  11. 5
  12. ×
  13. (
  14. 1
  15. t
  16. iteration
  17. /
  18. t
  19. maxiteration
  20. )
  21. 2
  22. \lambda=e^{-5 \times\left(1-t_{\text {iteration }} / t_{\text {maxiteration }}\right)^2}
  23. λ=e5×(1titeration ​/tmaxiteration ​)2

其中t为完整训练过程中当前的迭代次数。

  1. L
  2. s
  3. u
  4. p
  5. \mathcal{L}_{\mathrm{sup}}
  6. Lsup​和
  7. L
  8. s
  9. e
  10. m
  11. i
  12. \mathcal{L}_{\mathrm{semi}}
  13. Lsemi​分别讨论如下:

基于CrossEntropy CE计算各网络

  1. L
  2. s
  3. e
  4. m
  5. i
  6. \mathcal{L}_{\mathrm{semi}}
  7. Lsemi​之间的半监督损失,如式10所示:
  8. L
  9. semi
  10. =
  11. CE
  12. (
  13. argmax
  14. (
  15. f
  16. 1
  17. (
  18. X
  19. ;
  20. θ
  21. )
  22. ,
  23. f
  24. 2
  25. (
  26. X
  27. ;
  28. θ
  29. )
  30. )
  31. )
  32. \mathcal{L}_{\text {semi }}=\operatorname{CE}\left(\operatorname{argmax}\left(f_1(\boldsymbol{X} ; \theta), f_2(\boldsymbol{X} ; \theta)\right)\right)
  33. Lsemi ​=CE(argmax(f1​(X;θ),f2​(X;θ)))

以及四个半监督损失,

  1. (
  2. f
  3. 1
  4. (
  5. X
  6. ;
  7. θ
  8. )
  9. ,
  10. f
  11. 2
  12. (
  13. X
  14. ;
  15. θ
  16. )
  17. )
  18. \left(f_1(\boldsymbol{X} ; \theta), f_2(\boldsymbol{X} ; \theta)\right)
  19. (f1​(X;θ),f2​(X;θ)).

这个损失对应的网络,有以下4个

  1. (
  2. f
  3. C
  4. N
  5. N
  6. (
  7. X
  8. ;
  9. θ
  10. )
  11. ,
  12. f
  13. V
  14. i
  15. T
  16. (
  17. X
  18. ;
  19. θ
  20. )
  21. )
  22. \left(f_\mathrm{CNN}(\boldsymbol{X} ; \theta), f_\mathrm{ViT}(\boldsymbol{X} ; \theta)\right)
  23. (fCNN​(X;θ),fViT​(X;θ))
  24. (
  25. f
  26. V
  27. i
  28. T
  29. (
  30. X
  31. ;
  32. θ
  33. )
  34. ,
  35. f
  36. C
  37. N
  38. N
  39. (
  40. X
  41. ;
  42. θ
  43. )
  44. )
  45. \left(f_\mathrm{ViT}(\boldsymbol{X} ; \theta), f_\mathrm{CNN}(\boldsymbol{X} ; \theta)\right)
  46. (fViT​(X;θ),fCNN​(X;θ))
  47. (
  48. f
  49. V
  50. i
  51. T
  52. (
  53. X
  54. ;
  55. θ
  56. )
  57. ,
  58. f
  59. V
  60. i
  61. T
  62. (
  63. X
  64. ;
  65. θ
  66. )
  67. )
  68. \left(f_\mathrm{ViT}(\boldsymbol{X} ; \overline{\theta}), f_\mathrm{ViT}(\boldsymbol{X} ; \theta)\right)
  69. (fViT​(X;θ),fViT​(X;θ))
  70. (
  71. f
  72. V
  73. i
  74. T
  75. (
  76. X
  77. ;
  78. θ
  79. )
  80. ,
  81. f
  82. C
  83. N
  84. N
  85. (
  86. X
  87. ;
  88. θ
  89. )
  90. )
  91. \left(f_\mathrm{ViT}(\boldsymbol{X} ; \overline{\theta}), f_\mathrm{CNN}(\boldsymbol{X} ; \theta)\right)
  92. (fViT​(X;θ),fCNN​(X;θ))

根据CE和Dice系数Dice计算各网络的监管损失

  1. L
  2. s
  3. u
  4. p
  5. \mathcal{L}_{\mathrm{sup}}
  6. Lsup​,如式11所示:
  7. L
  8. sup
  9. =
  10. 1
  11. 2
  12. ×
  13. (
  14. CE
  15. (
  16. Y
  17. g
  18. t
  19. ,
  20. f
  21. (
  22. X
  23. ;
  24. θ
  25. )
  26. )
  27. +
  28. Dice
  29. (
  30. Y
  31. g
  32. t
  33. ,
  34. f
  35. (
  36. X
  37. ;
  38. θ
  39. )
  40. )
  41. )
  42. \mathcal{L}_{\text {sup }}=\frac{1}{2} \times\left(\operatorname{CE}\left(Y_{\mathrm{gt}}, f(\boldsymbol{X} ; \theta)\right)+\operatorname{Dice}\left(Y_{\mathrm{gt}}, f(\boldsymbol{X} ; \theta)\right)\right)
  43. Lsup ​=21​×(CE(Ygt​,f(X;θ))+Dice(Ygt​,f(X;θ)))

这里我们简单地用一个网络

  1. f
  2. (
  3. X
  4. ;
  5. θ
  6. )
  7. f(\boldsymbol{X} ; \theta)
  8. f(X;θ),可以认为是
  9. f
  10. C
  11. N
  12. N
  13. (
  14. θ
  15. 1
  16. )
  17. ,
  18. f
  19. V
  20. i
  21. T
  22. (
  23. θ
  24. 2
  25. )
  26. f_{\mathrm{CNN}}(\theta_1),f_{\mathrm{ViT}}(\theta_2)
  27. fCNN​(θ1​),fViT​(θ2​),因为每个用标记数据
  28. Y
  29. g
  30. t
  31. Y_{gt}
  32. Ygt​集训练的网络都直接以相同的方式进行训练。S4CVnet和第4节中报告的所有其他基线方法具有相同的损耗设计,包括CE, Dice for
  33. L
  34. s
  35. u
  36. p
  37. \mathcal{L}_{\mathrm{sup}}
  38. Lsup​和
  39. L
  40. s
  41. e
  42. m
  43. i
  44. \mathcal{L}_{\mathrm{semi}}
  45. Lsemi​,以便进行公平的比较。

4. 实验结果

  • 数据集设置我们的实验验证了S4CVnet和所有其他基线方法在自动心脏诊断MICCAI挑战2017[2]的MRI心室分割数据集上的有效性。数据来自100名患者(近6000张图像),涵盖不同分布的特征信息,横跨五个均匀分布的亚组:正常、心肌梗死、扩张型心肌病、肥厚性心肌病和异常右心室。所有图片大小调整为224×224。选择20%的图像作为测试集,其余数据集用于训练(包括验证)。
  • 实验细节我们的代码在Ubuntu 20.04 Python 3.8.8下开发,使用Pytorch 1.10和CUDA 11.3,使用四个Nvidia GeForce RTX 3090 GPU和Intel® Intel Core i9-10900K。运行时间平均在5小时左右,包括数据传输、训练、推断和评估。对数据集进行二维图像分割处理。S4CVnet训练30,000次迭代,批大小设置为24,优化器为SGD,初始学习率设置为0.01,动量为0.9,权重衰减为0.0001。每200次迭代保存网络权重并在验证集上进行评估,最后使用验证性能最好的制导模块网络进行最终测试。该设置也可以直接应用于其他基线方法,无需任何修改。
  • backboneS4CVnet由两种类型的网络组成,如图1所示。一种是基于cnn的具有跳过连接的分割网络UNet[34],另一种是基于vitn的具有移动窗口[27]和跳过连接的分割网络SwinUNet[4]。为了进行公平的比较,两个网络都是u型架构,纯基于CNN或vi的块作为编码器和解码器。本研究选择微型版本的ViT,使计算成本和训练效率与CNN相似。
  • 基线方法所有的方法,包括S4CVnet和其他基线方法,都是用相同的超参数设置和相同的特征分布来训练的。随机选取测试集、标记训练集和未标记训练集只进行一次,然后用所有基线方法和S4CVnet一起进行测试。报道的基线方法包括:MT [39], DAN [52], ICT [41], ADVENT [42], UAMT [51], DCN [32], CTCT[30],以CNN为骨干分割网络。
  • 评估方法S4CVnet与其他基线方法进行直接对比实验,采用多种评价指标,包括相似度度量:Dice, IOU, Accuracy, Precision, Sensitivity, Specificity,数值越高越好。研究了不同的测量方法:豪斯多夫距离(HD)和平均表面距离(ASD),其值越低越好。报告这些指标的平均值,因为数据集是一个多类分割数据集。当将S4CVnet与其他基线方法进行比较时,报告了完整的评估措施,以及所有替代框架的拓扑探索。IOU作为最常用的指标也被选择来报告所有基线方法和S4CVnet在不同标签数据/总数据比率的假设下的性能。IOU, Sensitivity和Specificity被选择来报告不同网络的消融研究,我们提出的贡献有不同的组合。

定性结果

图3展示了8张随机选择的样本原始图像,其中黄色、红色、绿色和黑色分别代表像素级的真阳性(TP)、假阳性(FP)、假阴性(FN)和真阴性(TN)推断。这说明了与其他方法相比,S4CVnet可以产生更少的FP像素和更低的ASD。

image-20230109171302308

定量结果

表1报告了S4CVnet与其他半监督方法(包括相似度量和差异度量)的直接比较,假设标记数据/总数据的比率为10%。表中不同措施的最佳结果加粗显示。图4 (A)简要地描绘了对数尺度的折线图,其中x轴是标记数据/总数据的比率,y轴是IOU性能,说明了S4CVnet相对于其他基线方法的有价值的性能,特别是在标记数据/总数据的低比率时。S4CVnet和基线方法在不同标签数据/总数据比例假设下的量化结果详见附录。图4 (b)中简单描绘了一个直方图,表示预测图像的IOU性能的累积分布,其中x轴是IOU阈值,y轴是测试集中预测图像的数量,表明S4CVnet比其他方法更有可能预测IOU高的图像。

image-20230109171059757

image-20230109184531431

S4CVnet相对于其他基线方法的性能。(a)在不同的训练标签/总数据比值假设下,mIOU结果在测试集上的折线图。(b)直方图表示预测图像的IOU性能在测试集上的累积分布。

消融实验

为了分析每种提出的贡献和组合的效果,包括网络的设置、特征学习模块和引导模块的机制以及S4CVnet每个网络的鲁棒性,进行了大量的烧蚀实验,并报告在表2中。表示取消了一个特征学习模块或制导模块的网络,并探索了所有可选的网络设置(CNN或ViT)。在提出的贡献的不同组合下,也分别测试了所有可用的网络,消融研究表明,通过师生指导方案和双视图联合训练特征学习方法,提出的S4CVnet在半监督图像语义分割中具有最合适的设置,能够充分利用CNN和ViT的力量。

image-20230109171424211

监管模式探索

除了对网络、特征学习模块和引导模块的不同设置和组合的消融研究,我们还通过对CNN和ViT所有替代监督模式的拓扑探索,充分探索半监督学习在医学图像语义分割中的应用。可选框架的完整列表如图5所示,在图的图例中简要地描绘了两种监督模式。

  1. \rightarrow
  2. →为Student-Teacher式督导模式,
  3. \dashrightarrow
  4. ⇢为交叉伪标签式督导模式。

图5 (a)用两个轴简要说明了所有的替代框架,y轴表示从三网到两网的不同监管模式,x轴表示CNN/ViT网络数量的比值,提出的S4CVnet在红色包围框中。图5 (a)中所示的所有框架都已经测试过,并直接用热图格式进行了报告。

图5 (b)是一个热图示例,表示CNN/ViT信息的监管模式和比例取决于热图的位置,并以红色包围框表示S4CVnet的位置。

图5 (c,d,e,f,g,h,i,j)表示了mDice、mIOU、准确率、精密度、灵敏度、特异性、ASD和HD验证性能的热图,展示了基于CNN和ViT的半监督医学图像分割CNN和ViT的半监督学习的全貌,以及我们提出的S4CVnet的命名位置。拓扑探测定量结果详见附录。

image-20230109171557468

image-20230109171607322

5. 结论

本文介绍了一种先进的医学图像语义分割半监督学习框架S4CVnet,旨在同时充分利用CNN和ViT的强大功能。S4CVnet由特征学习模块和引导模块组成。提出了一种双视图特征学习方法——特征学习模块,通过伪标签监督实现两个网络的互补。

指导模块基于平均网络权重来监督一致性关注下的学习模块。我们提出的方法使用各种评估指标和不同的假设,标签数据/总数据与其他半监督学习基线具有相同的超参数设置,并在公共基准数据集上保持最先进的位置。除了全面的消融研究外,使用CNN和ViT进行的拓扑探索说明了在半监督学习中使用CNN和ViT的整体情况。


本文转载自: https://blog.csdn.net/wujing1_1/article/details/128620158
版权归原作者 說詤榢 所有, 如有侵权,请联系我们删除。

“【半监督医学图像分割 2022 CVPR】S4CVnet 论文翻译”的评论:

还没有评论