0


神经辐射场 3D 重建——NeRF

😸NeRF(ECCV 2020)主要贡献:

  1. 提出一种将具有复杂几何性质和材料的连续场景表示为 5D 神经辐射场的方法,并将其参数化为基本的 MLP 网络
  2. 提出一种基于经典体渲染技术的可微渲染方式,论文用它来优化标准 RGB 图像的表示
  3. 提出位置编码将每个输入 5D 坐标映射到高维空间,这使得论文能够成功优化神经辐射场来表示高频场景内容

文章目录

前言

5D 坐标

😸论文提出了一种通过使用稀疏的输入图像集优化底层连续体积场景函数(volumetric scene function)的方法,从而达到了合成复杂场景新视图的

  1. SOTA

。论文的算法使用全连接深度网络表示场景,网络的输入是包括3D 位置信息

  1. (
  2. x
  3. ,
  4. y
  5. ,
  6. z
  7. )
  8. (x, y, z)
  9. (x,y,z) 和**视角方向**
  10. (
  11. θ
  12. ,
  13. ϕ
  14. )
  15. (\theta, \phi)
  16. (θ,ϕ) 的单个连续的 **5D 坐标**,其输出是该空间位置的**体积密度
  17. σ
  18. \sigma
  19. σ 和与视图相关的 RGB 颜色**,接着使用**经典的体绘制技术**将输出的颜色和密度投影到图像中。优化合成新视图所需要的唯一输入是一组具有**已知相机位姿的图像**(NeRF 中的 lego 小车使用
  1. 100

张图像),而 5D 坐标是通过沿着对应像素的相机光线采样所得到的。

在这里插入图片描述

坐标变换

三种坐标系:

  1. 世界坐标系:表示物理上的三维世界
  2. 相机坐标系:表示虚拟的三维相机坐标
  3. 图像坐标系:表示二维的图片坐标

😺相机坐标

  1. (
  2. X
  3. c
  4. ,
  5. Y
  6. c
  7. ,
  8. Z
  9. c
  10. )
  11. T
  12. (X_c, Y_c, Z_c)^T
  13. (Xc​,Yc​,Zc​)T 和世界坐标
  14. (
  15. X
  16. ,
  17. Y
  18. ,
  19. Z
  20. )
  21. T
  22. (X, Y, Z)^T
  23. (X,Y,Z)T 之间存在如下转换关系:
  24. C
  25. c
  26. =
  27. [
  28. X
  29. c
  30. Y
  31. c
  32. Z
  33. c
  34. 1
  35. ]
  36. =
  37. [
  38. r
  39. 11
  40. r
  41. 12
  42. r
  43. 13
  44. t
  45. x
  46. r
  47. 21
  48. r
  49. 22
  50. r
  51. 23
  52. t
  53. y
  54. r
  55. 31
  56. r
  57. 32
  58. r
  59. 33
  60. t
  61. z
  62. 0
  63. 0
  64. 0
  65. 1
  66. ]
  67. [
  68. X
  69. Y
  70. Z
  71. 1
  72. ]
  73. =
  74. [
  75. C
  76. o
  77. l
  78. 1
  79. C
  80. o
  81. l
  82. 2
  83. C
  84. o
  85. l
  86. 3
  87. C
  88. t
  89. 0
  90. 0
  91. 0
  92. 1
  93. ]
  94. [
  95. X
  96. Y
  97. Z
  98. 1
  99. ]
  100. =
  101. M
  102. w
  103. 2
  104. c
  105. C
  106. w
  107. C
  108. o
  109. l
  110. i
  111. =
  112. [
  113. r
  114. 1
  115. i
  116. ,
  117. r
  118. 2
  119. i
  120. ,
  121. r
  122. 3
  123. i
  124. ]
  125. T
  126. ,
  127. i
  128. [
  129. 1
  130. ,
  131. 2
  132. ,
  133. 3
  134. ]
  135. C
  136. t
  137. =
  138. [
  139. t
  140. x
  141. ,
  142. t
  143. y
  144. ,
  145. t
  146. z
  147. ]
  148. T
  149. C_c = \begin{bmatrix} X_c \\ Y_c \\ Z_c \\ 1 \end{bmatrix} = \begin{bmatrix} r_{11} & r_{12} & r_{13} & t_x \\ r_{21} & r_{22} & r_{23} & t_y \\ r_{31} & r_{32} & r_{33} & t_z \\ 0 & 0 & 0 & 1 \\ \end{bmatrix} \begin{bmatrix} X \\ Y \\ Z \\ 1 \end{bmatrix} = \begin{bmatrix} Col_1 & Col_2 & Col_3 & C_t \\ 0 & 0 & 0 &1 \end{bmatrix} \begin{bmatrix} X \\ Y \\ Z \\ 1 \end{bmatrix}= M_{w2c}C_w \\ Col_i = [r_{1i}, r_{2i}, r_{3i}]^T, i \in [1, 2, 3] \qquad C_t = [t_x, t_y, t_z]^T
  150. Cc​=⎣⎡​XcYcZc1​⎦⎤​=⎣⎡​r11r21r310r12r22r320r13r23r330txtytz1​⎦⎤​⎣⎡​XYZ1​⎦⎤​=[Col10Col20Col30Ct1​]⎣⎡​XYZ1​⎦⎤​=Mw2cCwColi​=[r1i​,r2i​,r3i​]T,i∈[1,2,3]Ct​=[tx​,ty​,tz​]T

✍️其中,矩阵

  1. M
  2. w
  3. 2
  4. c
  5. M_{w2c}
  6. Mw2c 是一个仿射变换矩阵,也可叫做相机的外参矩阵;
  7. [
  8. C
  9. o
  10. l
  11. 1
  12. ,
  13. C
  14. o
  15. l
  16. 2
  17. ,
  18. C
  19. o
  20. l
  21. 3
  22. ]
  23. [Col_1, Col_2, Col_3]
  24. [Col1​,Col2​,Col3​] 包含旋转信息;
  25. C
  26. t
  27. C_t
  28. Ct 包含平移信息。

🙀对于二维图片的坐标

  1. [
  2. x
  3. ,
  4. y
  5. ]
  6. T
  7. [x, y]^T
  8. [x,y]T 和相机坐标系下的坐标
  9. [
  10. U
  11. ,
  12. V
  13. ,
  14. W
  15. ]
  16. [U, V, W]
  17. [U,V,W] 存在如下转换关系:
  18. [
  19. x
  20. y
  21. 1
  22. ]
  23. =
  24. [
  25. f
  26. x
  27. 0
  28. c
  29. x
  30. 0
  31. f
  32. y
  33. c
  34. y
  35. 0
  36. 0
  37. 1
  38. ]
  39. [
  40. U
  41. V
  42. W
  43. ]
  44. =
  45. M
  46. c
  47. 2
  48. i
  49. C
  50. c
  51. \begin{bmatrix} x \\ y \\ 1 \end{bmatrix} = \begin{bmatrix} f_x & 0 & c_x \\ 0 & f_y & c_y \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} U \\ V \\ W \end{bmatrix} = M_{c2i}C_c
  52. ⎣⎡​xy1​⎦⎤​=⎣⎡​fx000fy0cxcy1​⎦⎤​⎣⎡​UVW​⎦⎤​=Mc2iCc

✍️其中,矩阵

  1. M
  2. c
  3. 2
  4. i
  5. M_{c2i}
  6. Mc2i 为相机的内参矩阵(透视投影矩阵),包含焦距
  7. (
  8. f
  9. x
  10. ,
  11. f
  12. y
  13. )
  14. (f_x, f_y)
  15. (fx​,fy​) 以及图像中心点的坐标
  16. (
  17. c
  18. x
  19. ,
  20. c
  21. y
  22. )
  23. (c_x, c_y)
  24. (cx​,cy​)。

😸论文使用数据集的配置文件

  1. *.json

中的

  1. transform_matrix

为上面所述仿射变换矩阵

  1. M
  2. w
  3. 2
  4. c
  5. M_{w2c}
  6. Mw2c 的逆矩阵
  7. M
  8. c
  9. 2
  10. w
  11. =
  12. M
  13. w
  14. 2
  15. c
  16. 1
  17. M_{c2w} = M_{w2c}^{-1}
  18. Mc2w​=Mw2c1​;而
  1. camera_angle_x

是相机的水平视场 (horizontal field of view),可以用于算焦距。

常见图像质量评估指标

  • 结构相似性 SSIM:一种衡量两幅图像相似度的指标,其值越大则两张图片越相似(范围为 [ 0 , 1 ] [0, 1] [0,1])。给定两张图片 x x x 和 y y y,其计算公式如下:

    1. S
    2. S
    3. I
    4. M
    5. (
    6. x
    7. ,
    8. y
    9. )
    10. =
    11. (
    12. 2
    13. μ
    14. x
    15. μ
    16. y
    17. +
    18. c
    19. 1
    20. )
    21. (
    22. 2
    23. σ
    24. x
    25. y
    26. +
    27. c
    28. 2
    29. )
    30. (
    31. μ
    32. x
    33. 2
    34. +
    35. μ
    36. y
    37. 2
    38. +
    39. c
    40. 1
    41. )
    42. (
    43. σ
    44. x
    45. 2
    46. +
    47. σ
    48. y
    49. 2
    50. +
    51. c
    52. 2
    53. )
    54. SSIM(x, y) = \frac{(2 \mu_x \mu_y + c_1)(2 \sigma_{xy} + c_2)}{(\mu_{x}^{2}+\mu_{y}^{2}+c_1)(\sigma_{x}^{2}+\sigma_{y}^{2}+c_2)}

    SSIM(x,y)=(μx2​+μy2​+c1​)(σx2​+σy2​+c2​)(2μx​μy​+c1​)(2σxy​+c2​)​

✍️其中,

  1. μ
  2. x
  3. \mu_x
  4. μx
  5. x
  6. x
  7. x 的均值,
  8. μ
  9. y
  10. \mu_y
  11. μy
  12. y
  13. y
  14. y 的均值,
  15. σ
  16. x
  17. \sigma_x
  18. σx
  19. x
  20. x
  21. x 的方差,
  22. σ
  23. y
  24. \sigma_y
  25. σy
  26. y
  27. y
  28. y 的方差,
  29. σ
  30. x
  31. y
  32. \sigma_{xy}
  33. σxy
  34. x
  35. x
  36. x
  37. y
  38. y
  39. y 的协方差,
  40. c
  41. 1
  42. =
  43. (
  44. K
  45. 1
  46. L
  47. )
  48. 2
  49. c_1=(K_1 L)^2
  50. c1​=(K1L)2
  51. c
  52. 2
  53. =
  54. (
  55. K
  56. 2
  57. L
  58. )
  59. 2
  60. c_2=(K_2 L)^2
  61. c2​=(K2L)2
  62. K
  63. 1
  64. =
  65. 0.01
  66. K_1 = 0.01
  67. K1​=0.01
  68. K
  69. 2
  70. =
  71. 0.03
  72. K_2 = 0.03
  73. K2​=0.03
  74. L
  75. L
  76. L 为像素值的动态范围(如
  1. 255

)。

  • 峰值信噪比 PSNR:一般用于衡量最大值信号和背景噪音之间的图像质量参考值,其值越大图像失真越少(单位为 dB)。一般来说,PSNR 高于 40dB 说明图像质量几乎与原图一样好;在 30-40dB 之间通常表示图像质量的失真损失在可接受范围内;在 20-30dB 之间说明图像质量比较差;PSNR 低于 20dB 说明图像失真严重。给定一个大小为 m × n m \times n m×n 的原始图像 I 和带噪声的图像 K,首先需要**计算这两张图像的均方误差 MSE,接着再通过 MSE 计算峰值信噪比 PSNR**,其计算公式如下:

    1. M
    2. S
    3. E
    4. =
    5. 1
    6. m
    7. n
    8. i
    9. =
    10. 0
    11. m
    12. 1
    13. j
    14. =
    15. 0
    16. n
    17. 1
    18. [
    19. I
    20. (
    21. i
    22. ,
    23. j
    24. )
    25. K
    26. (
    27. i
    28. ,
    29. j
    30. )
    31. ]
    32. 2
    33. P
    34. S
    35. N
    36. R
    37. =
    38. 10
    39. log
    40. 10
    41. (
    42. M
    43. A
    44. X
    45. I
    46. 2
    47. M
    48. S
    49. E
    50. )
    51. \begin{aligned} MSE &= \frac{1}{mn} \sum_{i=0}^{m-1} \sum_{j=0}^{n-1}[I(i, j)-K(i, j)]^2 \\ PSNR & = 10 \cdot \log_{10}(\frac{MAX_{I}^{2}}{MSE}) \end{aligned}

    MSEPSNR​=mn1​i=0∑m−1​j=0∑n−1​[I(i,j)−K(i,j)]2=10⋅log10​(MSEMAXI2​​)​

✍️其中,

  1. M
  2. A
  3. X
  4. I
  5. MAX_I
  6. MAXI 为图像
  1. I

可能的最大像素值,

  1. I
  2. (
  3. i
  4. ,
  5. j
  6. )
  7. I(i, j)
  8. I(i,j)
  9. K
  10. (
  11. i
  12. ,
  13. j
  14. )
  15. K(i, j)
  16. K(i,j) 分别为图像
  1. I

  1. K

对应位置

  1. (
  2. i
  3. ,
  4. j
  5. )
  6. (i, j)
  7. (i,j) 的像素值。
  • 学习感知图像块相似度 LPIPS:用于计算参考图像块 x x x 和失真图像块 x 0 x_0 x0​ 之间的距离,其值越小则相似度越高。LPIPS 先提取特征并在通道维度中进行单元归一化,对于 l l l 层,我们将得到的结果记为 y ^ l \hat{y}^l y^​l, y ^ 0 l ∈ R H l × H l × C l \hat{y}_0^l \in \mathcal{R}^{H_l \times H_l \times C_l} y^​0l​∈RHl​×Hl​×Cl​。接着,再利用向量 w l ∈ R C l w_l \in \mathcal{R}^{C_l} wl​∈RCl​ 缩放激活通道并计算 l 2 l_2 l2​ 距离,最后在空间上求平均值,在信道上求和。其公式如下:

    1. d
    2. (
    3. x
    4. ,
    5. x
    6. 0
    7. )
    8. =
    9. l
    10. 1
    11. H
    12. l
    13. W
    14. l
    15. h
    16. ,
    17. w
    18. w
    19. l
    20. (
    21. y
    22. ^
    23. h
    24. w
    25. l
    26. y
    27. ^
    28. 0
    29. h
    30. w
    31. l
    32. )
    33. 2
    34. 2
    35. d(x, x_0) = \sum_{l} \frac{1}{H_l W_l} \sum_{h, w} \parallel w_l \bigodot (\hat{y}_{hw}^{l} - \hat{y}_{0hw}^{l}) \parallel_{2}^{2}

    d(x,x0​)=l∑​Hl​Wl​1​h,w∑​∥wl​⨀(y^​hwl​−y^​0hwl​)∥22​

✍️若对该指标的细节感兴趣,可参考这篇文章。

网络结构

😸神经辐射场 NeRF 是 Neural Radiance Fields 的缩写,其可以简要概括为用一个 MLP 神经网络去隐式地学习一个静态 3D 场景。为了训练网络,针对一个静态场景,需要提供大量相机参数已知的图片。基于这些图片训练好的神经网络,即可以从任意角度渲染出图片的结果。以下为 NeRF 的总体框架:

在这里插入图片描述

  1. 获取采样点的 5D 坐标 ( x , d ) (\pmb{x}, \pmb{d}) (xx,dd) ,该坐标包含 3D 位置信息 x = ( x , y , z ) \pmb{x} = (x, y, z) xx=(x,y,z) 和视角方向 d = ( θ , ϕ ) \pmb{d}=(\theta, \phi) dd=(θ,ϕ)。
  2. 通过位置编码对 3D 位置 x ∈ R 3 \pmb{x} \in \mathcal{R}^3 xx∈R3 和视角方向 d ∈ R 2 \pmb{d} \in \mathcal{R}^2 dd∈R2 进行相应处理,从而得到编码后的信息 γ ( x ) ∈ R 60 \gamma(\pmb{x}) \in \mathcal{R}^{60} γ(xx)∈R60 和 γ ( d ) ∈ R 24 \gamma(\pmb{d}) \in \mathcal{R}^{24} γ(dd)∈R24。对于编码后的维度可参考后面位置编码章节做理解。
  3. 将 γ ( x ) \gamma(\pmb{x}) γ(xx) 输入到 8 层全连接层中,每层通道数为 256 且都经过 ReLU 函数激活(黑色实箭头)。此外,论文还遵循 DeepSDF 架构,将通过一个跳连接将输入 γ ( x ) \gamma(\pmb{x}) γ(xx) 拼接到第 5 个全连接层的输出中。
  4. 在第 8 个全连接层后添加一个新的全连接层,该层通道数为 256 且不经过激活函数(橙色箭头)。其输出为维度 256 的中间特征 F t F_t Ft​ 和体素密度 σ \sigma σ(可近似理解为不透明度,值越小越透明)。对于 σ \sigma σ,论文通过激活函数 ReLU 来确保其为非负的
  5. 将编码后的视角方向 γ ( d ) \gamma(\pmb{d}) γ(dd) 和中间特征 F t F_t Ft​ 拼接起来,然后送入输出通道数为 128 的全连接层中,再经过激活函数 ReLU 处理得到特征 F c F_c Fc​。
  6. 将 F c F_c Fc​ 送入全连接层中,再经过 sigmoid 激活函数(黑色虚箭头)处理得到三维的 RGB 输出
  7. 通过体渲染技术利用上面输出的颜色和体密度来合成图像。由于渲染函数是可微的,所以可以通过最小化合成图像与真实图像之间的误差(residual)来优化场景表示。

✍️NeRF 中输出 **

  1. σ
  2. \sigma
  3. σ 只与位置有关,而颜色 RGB 还与视角方向相关**。

体渲染

😸体密度

  1. σ
  2. (
  3. x
  4. )
  5. \sigma(\pmb{x})
  6. σ(xx) 可解释为射线在
  7. x
  8. \pmb{x}
  9. xx 位置终止于无穷小的粒子的**微分概率**(简单理解为不透明度),而相机射线
  10. r
  11. (
  12. t
  13. )
  14. =
  15. o
  16. +
  17. t
  18. d
  19. \pmb{r}(t) = \pmb{o} + t\pmb{d}
  20. rr(t)=oo+tdd 的期望颜色
  21. C
  22. (
  23. r
  24. )
  25. C(r)
  26. C(r) 在近界
  27. t
  28. n
  29. t_n
  30. tn 和远界
  31. t
  32. f
  33. t_f
  34. tf 下为:
  35. C
  36. (
  37. r
  38. )
  39. =
  40. t
  41. n
  42. t
  43. f
  44. T
  45. (
  46. t
  47. )
  48. σ
  49. (
  50. r
  51. (
  52. t
  53. )
  54. )
  55. c
  56. (
  57. r
  58. (
  59. t
  60. )
  61. ,
  62. d
  63. )
  64. d
  65. t
  66. ,
  67. w
  68. h
  69. e
  70. r
  71. e
  72. T
  73. (
  74. t
  75. )
  76. =
  77. e
  78. x
  79. p
  80. (
  81. t
  82. n
  83. t
  84. σ
  85. (
  86. r
  87. (
  88. s
  89. )
  90. )
  91. d
  92. s
  93. )
  94. (
  95. 1
  96. )
  97. C(\pmb{r}) = \int_{t_n}^{t_f}T(t)\sigma(\pmb{r}(t))\pmb{c}(\pmb{r}(t), \pmb{d}) dt, \quad where \ T(t) = exp(-\int_{t_n}^t \sigma(\pmb{r}(s))ds) \quad (1)
  98. C(rr)=∫tntf​​T(t)σ(rr(t))cc(rr(t),dd)dt,where T(t)=exp(−∫tnt​σ(rr(s))ds)(1)

✍️函数

  1. T
  2. (
  3. t
  4. )
  5. T(t)
  6. T(t) 表示射线从
  7. t
  8. n
  9. t_n
  10. tn
  11. t
  12. t
  13. t 沿射线累积**透射率**,即射线从
  14. t
  15. n
  16. t_n
  17. tn
  18. t
  19. t
  20. t 不碰到其他任何粒子(particle)的概率。前面累积的体积密度
  21. t
  22. n
  23. t
  24. σ
  25. (
  26. r
  27. (
  28. s
  29. )
  30. )
  31. d
  32. s
  33. \int_{t_n}^t \sigma(\pmb{r}(s))ds
  34. tnt​σ(rr(s))ds 越大(非负),则
  35. T
  36. (
  37. t
  38. )
  39. T(t)
  40. T(t) 越小,从而降低(因为**遮挡**)该位置对颜色的影响:当前区域体积密度
  41. σ
  42. (
  43. r
  44. (
  45. t
  46. )
  47. )
  48. \sigma(\pmb{r}(t))
  49. σ(rr(t)) 越高,对颜色影响越大,但其会降低后面区域对颜色的影响(例如前面区域完全不透明,那么后面区域不管什么颜色,都不会影响该方向物体的颜色)。因此,这里根据
  50. T
  51. (
  52. t
  53. )
  54. T(t)
  55. T(t) 来降低相应区域对颜色的影响。

🙀通过对所需虚拟相机(virtual camera)的每个像素的光线计算这个积分

  1. C
  2. (
  3. r
  4. )
  5. C(r)
  6. C(r) 来为连续的神经辐射场绘制视图,从而得到颜色值。论文用求积法对这个连续积分进行数值估计,而确定性求积(deterministic quadrature)通常用于绘制**离散体素网格**。因为 MLP 只会在一些**固定的离散位置集上执行**,所以它会有限制表示的分辨率(representations resolution)。相反,论文采用**分段抽样方法**(stratified sampling),将
  7. [
  8. t
  9. n
  10. ,
  11. t
  12. f
  13. ]
  14. [t_n, t_f]
  15. [tn​,tf​] 划分为
  16. N
  17. N
  18. N 等分,然后从每一块中**均匀随机**(uniformly at random)抽取一个样本:
  19. t
  20. i
  21. U
  22. [
  23. t
  24. n
  25. +
  26. i
  27. 1
  28. N
  29. (
  30. t
  31. f
  32. t
  33. n
  34. )
  35. ,
  36. t
  37. n
  38. +
  39. i
  40. N
  41. (
  42. t
  43. f
  44. t
  45. n
  46. )
  47. ]
  48. (
  49. 2
  50. )
  51. t_i \sim \mathcal{U}[t_n + \frac{i-1}{N}(t_f - t_n),\ t_n + \frac{i}{N}(t_f - t_n)] \quad (2)
  52. ti​∼U[tn​+Ni1​(tf​−tn​), tn​+Ni​(tf​−tn​)](2)

🙀虽然论文使用离散的样本集来估计积分,但因为分段抽样会导致 MLP 在优化过程中的连续位置被评估,从而能够表示一个连续的场景。论文使用

  1. Max

在体绘制综述中讨论的正交规则(quadrature rule)和这些离散的样本来估计

  1. C
  2. (
  3. r
  4. )
  5. C(r)
  6. C(r):
  7. C
  8. ^
  9. (
  10. r
  11. )
  12. =
  13. i
  14. =
  15. 1
  16. N
  17. T
  18. i
  19. (
  20. 1
  21. exp
  22. (
  23. σ
  24. i
  25. δ
  26. i
  27. )
  28. )
  29. c
  30. i
  31. ,
  32. w
  33. h
  34. e
  35. r
  36. e
  37. T
  38. i
  39. =
  40. exp
  41. (
  42. j
  43. =
  44. 1
  45. i
  46. 1
  47. σ
  48. j
  49. δ
  50. j
  51. )
  52. (
  53. 3
  54. )
  55. \hat{C}(\pmb{r}) = \sum_{i=1}^N T_i (1 - \exp(-\sigma_i \delta_i))\pmb{c}_i, \quad where \ T_i = \exp(-\sum_{j=1}^{i-1}\sigma_j \delta_j) \quad (3)
  56. C^(rr)=i=1NTi​(1exp(−σi​δi​))cci​,where Ti​=exp(−j=1i1​σj​δj​)(3)

✍️其中,

  1. δ
  2. i
  3. =
  4. t
  5. i
  6. +
  7. 1
  8. t
  9. i
  10. \delta_i = t_{i+1} - t_i
  11. δi​=ti+1​−ti 为相邻两个采样点之间的**距离**。这个从
  12. (
  13. c
  14. i
  15. ,
  16. σ
  17. i
  18. )
  19. (\pmb{c}_i, \sigma_i)
  20. (cci​,σi​) 值集合计算
  21. C
  22. ^
  23. (
  24. r
  25. )
  26. \hat{C}(\pmb{r})
  27. C^(rr) 的函数是**可微的**。因此,基于这样的渲染方式就可以用 NeRF 函数从**任意角度中渲染出图片**。

位置编码

🙀尽管神经网络是通用的函数近似器(universal function approximators),但其在表示颜色和几何形状方面的高频变化方面表现不佳,这表明深度网络偏向于学习低频函数。论文表明,在将输入传递给网络之前,使用高频函数将输入映射到更高维度的空间,可以更好地拟合包含高频变化的数据。 为了能有效提升清晰度,论文引入了位置编码,将位置信息映射到高频空间,从而将 MLP 表示为

  1. F
  2. Θ
  3. =
  4. F
  5. Θ
  6. γ
  7. F_{\Theta} = F_{\Theta}^{'} \circ \gamma
  8. FΘ​=FΘ′​∘γ ,位置编码
  9. γ
  10. \gamma
  11. γ 表达式如下:
  12. γ
  13. (
  14. p
  15. )
  16. =
  17. (
  18. sin
  19. (
  20. 2
  21. 0
  22. π
  23. p
  24. )
  25. ,
  26. cos
  27. (
  28. 2
  29. 0
  30. π
  31. p
  32. )
  33. ,
  34. ,
  35. sin
  36. (
  37. 2
  38. L
  39. 1
  40. π
  41. p
  42. )
  43. ,
  44. cos
  45. (
  46. 2
  47. L
  48. 1
  49. π
  50. p
  51. )
  52. )
  53. (
  54. 4
  55. )
  56. \begin{aligned} \gamma(p) &= (\sin(2^0\pi p), \cos(2^0 \pi p), \cdots , \sin(2^{L-1} \pi p), \cos(2^{L-1}\pi p)) \quad (4) \\ \end{aligned}
  57. γ(p)​=(sin(20πp),cos(20πp),⋯,sin(2L−1πp),cos(2L−1πp))(4)​

✍️其中,

  1. F
  2. Θ
  3. F_{\Theta}^{'}
  4. FΘ′​ 仍然是一个
  1. MLP

,而

  1. γ
  2. \gamma
  3. γ 是**从
  4. R
  5. \mathbb{R}
  6. R 维空间到高维空间
  7. R
  8. 2
  9. L
  10. \mathbb{R}^{2L}
  11. R2L 的映射**,
  12. γ
  13. (
  14. )
  15. \gamma(\cdot)
  16. γ(⋅) 分别应用于
  17. x
  18. \pmb{x}
  19. xx 中的**三个坐标值**(被归一化到
  20. [
  21. 1
  22. ,
  23. 1
  24. ]
  25. [-1, 1]
  26. [−1,1])和笛卡尔视角方向单位向量(Cartesian viewing direction unit vector
  27. d
  28. \pmb{d}
  29. dd 的**三个分量**(其范围为
  30. [
  31. 1
  32. ,
  33. 1
  34. ]
  35. [-1, 1]
  36. [−1,1])。计算
  37. γ
  38. (
  39. x
  40. )
  41. \gamma(\pmb{x})
  42. γ(xx)
  43. L
  44. =
  45. 10
  46. L=10
  47. L=10 即维度为
  48. 3
  49. ×
  50. 2
  51. ×
  52. 10
  53. =
  54. 60
  55. 3 \times 2 \times 10 = 60
  56. 3×2×10=60;计算
  57. γ
  58. (
  59. d
  60. )
  61. \gamma(\pmb{d})
  62. γ(dd)
  63. L
  64. =
  65. 4
  66. L=4
  67. L=4,即维度为
  68. 3
  69. ×
  70. 2
  71. ×
  72. 4
  73. =
  74. 24
  75. 3 \times 2 \times 4 = 24
  76. 3×2×4=24

多层级体素采样

😸NeRF 的渲染过程计算量很大,每条射线都要采样很多点。但实际上,一条射线上的大部分区域都是空区域,或者是被遮挡的区域,对最终的颜色没啥贡献,而原始方法会对这些区域重复取样,从而降低了效率。因此,论文引入多层级体素采样( Hierarchical volume sampling),采用了一种

  1. coarse to fine"

的形式,同时优化 coarse 网络和 fine 网络。对于 coarse 网络,论文采样较为稀疏

  1. N
  2. c
  3. N_c
  4. Nc 个点,并将前述式子
  1. (3)

的离散求和函数重新表示为:

  1. C
  2. ^
  3. c
  4. (
  5. r
  6. )
  7. =
  8. i
  9. =
  10. 1
  11. N
  12. c
  13. w
  14. i
  15. c
  16. i
  17. ,
  18. w
  19. i
  20. =
  21. T
  22. i
  23. (
  24. 1
  25. exp
  26. (
  27. σ
  28. i
  29. δ
  30. i
  31. )
  32. )
  33. (
  34. 5
  35. )
  36. \hat{C}_c(\pmb{r}) = \sum_{i=1}^{N_c} w_i c_i, \quad w_i = T_i(1 - \exp(-\sigma_i \delta_i)) \quad (5)
  37. C^c​(rr)=i=1Nc​​wici​,wi​=Ti​(1exp(−σi​δi​))(5)

😸然后对权值做归一化

  1. w
  2. ^
  3. i
  4. =
  5. w
  6. i
  7. /
  8. j
  9. =
  10. 1
  11. N
  12. c
  13. w
  14. j
  15. \hat{w}_i = w_i / \sum_{j=1}^{N_c} w_j
  16. w^i​=wi​/∑j=1Nc​​wj ,此处的
  17. w
  18. ^
  19. i
  20. \hat{w}_i
  21. w^i 可以看作是沿着射线的**概率密度函数**(PDF),通过这个概率密度函数可以粗略地得到射线上物体的分布情况。接下来,**基于得到的分布使用逆变换采样(inverse transform sampling)来采样**
  22. N
  23. f
  24. N_f
  25. Nf 个点,并用这
  26. N
  27. f
  28. N_f
  29. Nf 个点和前面的
  30. N
  31. c
  32. N_c
  33. Nc 个点通过前面公式
  1. (3)

一同计算 fine 网络的渲染结果

  1. C
  2. ^
  3. f
  4. (
  5. r
  6. )
  7. \hat{C}_f(\pmb{r})
  8. C^f​(rr)。虽然 coarse to fine 是计算机视觉领域中常见的一个思路,但这篇论文中用 coarse 网络来生成概率密度函数,再基于概率密度函数采样更精细的点算的上是很有趣新颖的做法。采样的图示如下:

在这里插入图片描述

✍️上图中,白色的点为第一阶段采样的

  1. N
  2. c
  3. N_c
  4. Nc 个点,而**黄色**的点为第二阶段根据 PDF 采样的
  5. N
  6. f
  7. N_f
  8. Nf 个点。

损失函数

😺由于渲染函数是可微的,所以可以通过下式来计算损失:

  1. L
  2. =
  3. r
  4. R
  5. [
  6. C
  7. ^
  8. c
  9. (
  10. r
  11. )
  12. C
  13. (
  14. r
  15. )
  16. 2
  17. 2
  18. +
  19. C
  20. ^
  21. f
  22. (
  23. r
  24. )
  25. C
  26. (
  27. r
  28. )
  29. 2
  30. 2
  31. ]
  32. \mathcal{L} = \sum_{\pmb{r} \in \mathcal{R}}[\parallel \hat{C}_c(\pmb{r}) - C(\pmb{r}) \parallel_2^2 + \parallel \hat{C}_f (\pmb{r}) - C(\pmb{r}) \parallel_2^2]
  33. L=rrR∑​[∥C^c​(rr)−C(rr)∥22​+∥C^f​(rr)−C(rr)∥22​]

✍️其中

  1. R
  2. \mathcal{R}
  3. R 为每批射线的集合,
  4. C
  5. (
  6. r
  7. )
  8. C(\pmb{r)}
  9. C(r)r)、
  10. C
  11. ^
  12. c
  13. (
  14. r
  15. )
  16. \hat{C}_c(\pmb{r})
  17. C^c​(rr)、
  18. C
  19. ^
  20. f
  21. (
  22. r
  23. )
  24. \hat{C}_f(\pmb{r})
  25. C^f​(rr) 分别为射线
  26. r
  27. \pmb{r}
  28. rr
  1. ground truth

、粗体积(coarse volume)预测、精体积(fine volume)预测的 RGB 颜色。虽然**最终的渲染来自

  1. C
  2. ^
  3. f
  4. (
  5. r
  6. )
  7. \hat{C}_f(\pmb{r})
  8. C^f​(rr)**,但也要同时最小化
  9. C
  10. ^
  11. c
  12. (
  13. r
  14. )
  15. \hat{C}_c(\pmb{r})
  16. C^c​(rr) 的损失,从而使粗网络的权值分布可以用于细网络中的样本分配。

代码运行结果

😻以下是运行 200k 轮后生成的 lego 模型(显卡 RTX3060 6G,训练时间约 15h),代码使用 pytorch 版本(文末有附地址)
在这里插入图片描述

✍️在训练过程中,渲染时出现 GPU 内存不足,可通过减少 chunk 大小解决问题

  1. # parser.add_argument("--chunk", type=int, default=1024*32,
  2. parser.add_argument("--chunk",type=int, default=1024*16,help='number of rays processed in parallel, decrease if running out of memory')

🙀以下是消融实验的部分结果:

在这里插入图片描述

  • 移除 View Dependence(即不使用视角方向 d \pmb{d} dd)会阻碍模型在推土机胎面上重新创建镜面反射(specular reflection)
  • 移除位置编码大大降低了模型表示高频几何和纹理的能力,导致外观过平滑

😻pytorch 版 NeRF(速度比原始代码快大约 1.3 倍):https://github.com/yenchenlin/nerf-pytorch

😻文章:https://arxiv.org/pdf/2003.08934.pdf

😻项目地址:https://www.matthewtancik.com/nerf

📖文章补充:【NeRF论文笔记】用于视图合成的神经辐射场技术、NeRF:用深度学习完成3D渲染任务的蹿红、NeRF论文阅读、【3D】NeRF论文随笔、【学习笔记】NeRF


本文转载自: https://blog.csdn.net/steven_ysh/article/details/124100717
版权归原作者 Lemon_Yam 所有, 如有侵权,请联系我们删除。

“神经辐射场 3D 重建——NeRF”的评论:

还没有评论