0


PINN深度学习求解微分方程系列一:求解框架

下面我将介绍内嵌物理知识神经网络(PINN)求解微分方程。首先介绍PINN基本方法,并基于Pytorch框架实现求解一维Poisson方程。
内嵌物理知识神经网络(PINN)入门及相关论文
深度学习求解微分方程系列一:PINN求解框架(Poisson 1d)
深度学习求解微分方程系列二:PINN求解burger方程正问题
深度学习求解微分方程系列三:PINN求解burger方程逆问题
深度学习求解微分方程系列四:基于自适应激活函数PINN求解burger方程逆问题

1.PINN简介

神经网络作为一种强大的信息处理工具在计算机视觉、生物医学、 油气工程领域得到广泛应用, 引发多领域技术变革.。深度学习网络具有非常强的学习能力, 不仅能发现物理规律, 还能求解偏微分方程.。近年来,基于深度学习的偏微分方程求解已是研究新热点。内嵌物理知识神经网络(PINN)是一种科学机器在传统数值领域的应用方法,能够用于解决与偏微分方程 (PDE) 相关的各种问题,包括方程求解、参数反演、模型发现、控制与优化等。

2.PINN方法

PINN的主要思想如图1,先构建一个输出结果为

  1. u
  2. ^
  3. \hat{u}
  4. u^的神经网络,将其作为PDE解的代理模型,将PDE信息作为约束,编码到神经网络损失函数中进行训练。

在这里插入图片描述

损失函数主要包括4部分:偏微分结构损失(PDE loss),边值条件损失(BC loss)、初值条件损失(IC loss)以及真实数据条件损失(Data loss)。特别的,考虑下面这个的PDE问题,其中PDE的解

  1. u
  2. (
  3. x
  4. )
  5. u(x)
  6. u(x)在
  7. Ω
  8. R
  9. d
  10. \Omega \subset \mathbb{R}^{d}
  11. Ω⊂Rd定义,其中
  12. x
  13. =
  14. (
  15. x
  16. 1
  17. ,
  18. ,
  19. x
  20. d
  21. )
  22. \mathbf{x}=\left(x_{1}, \ldots, x_{d}\right)
  23. x=(x1​,…,xd​):
  24. f
  25. (
  26. x
  27. ;
  28. u
  29. x
  30. 1
  31. ,
  32. ,
  33. u
  34. x
  35. d
  36. ;
  37. 2
  38. u
  39. x
  40. 1
  41. x
  42. 1
  43. ,
  44. ,
  45. 2
  46. u
  47. x
  48. 1
  49. x
  50. d
  51. )
  52. =
  53. 0
  54. ,
  55. x
  56. Ω
  57. f\left(\mathbf{x} ; \frac{\partial u}{\partial x_{1}}, \ldots, \frac{\partial u}{\partial x_{d}} ; \frac{\partial^{2} u}{\partial x_{1} \partial x_{1}}, \ldots, \frac{\partial^{2} u}{\partial x_{1} \partial x_{d}} \right)=0, \quad \mathbf{x} \in \Omega
  58. f(x;∂x1​∂u​,…,∂xd​∂u​;∂x1​∂x1​∂2u​,…,∂x1​∂xd​∂2u​)=0,x∈Ω

同时,满足下面的边界

  1. B
  2. (
  3. u
  4. ,
  5. x
  6. )
  7. =
  8. 0
  9. on
  10. Ω
  11. \mathcal{B}(u, \mathbf{x})=0 \quad \text { on } \quad \partial \Omega
  12. B(u,x)=0 on ∂Ω

为了衡量神经网络

  1. u
  2. ^
  3. \hat{u}
  4. u^和约束之间的差异,考虑损失函数定义:
  5. L
  6. (
  7. θ
  8. )
  9. =
  10. w
  11. f
  12. L
  13. P
  14. D
  15. E
  16. (
  17. θ
  18. ;
  19. T
  20. f
  21. )
  22. +
  23. w
  24. i
  25. L
  26. I
  27. C
  28. (
  29. θ
  30. ;
  31. T
  32. i
  33. )
  34. +
  35. w
  36. b
  37. L
  38. B
  39. C
  40. (
  41. θ
  42. ,
  43. ;
  44. T
  45. b
  46. )
  47. +
  48. w
  49. d
  50. L
  51. D
  52. a
  53. t
  54. a
  55. (
  56. θ
  57. ,
  58. ;
  59. T
  60. d
  61. a
  62. t
  63. a
  64. )
  65. \mathcal{L}\left(\boldsymbol{\theta}\right)=w_{f} \mathcal{L}_{PDE}\left(\boldsymbol{\theta}; \mathcal{T}_{f}\right)+w_{i} \mathcal{L}_{IC}\left(\boldsymbol{\theta} ; \mathcal{T}_{i}\right)+w_{b} \mathcal{L}_{BC}\left(\boldsymbol{\theta},; \mathcal{T}_{b}\right)+w_{d} \mathcal{L}_{Data}\left(\boldsymbol{\theta},; \mathcal{T}_{data}\right)
  66. L(θ)=wfLPDE​(θ;Tf​)+wiLIC​(θ;Ti​)+wbLBC​(θ,;Tb​)+wdLData​(θ,;Tdata​)

式中:

  1. L
  2. P
  3. D
  4. E
  5. (
  6. θ
  7. ;
  8. T
  9. f
  10. )
  11. =
  12. 1
  13. T
  14. f
  15. x
  16. T
  17. f
  18. f
  19. (
  20. x
  21. ;
  22. u
  23. ^
  24. x
  25. 1
  26. ,
  27. ,
  28. u
  29. ^
  30. x
  31. d
  32. ;
  33. 2
  34. u
  35. ^
  36. x
  37. 1
  38. x
  39. 1
  40. ,
  41. ,
  42. 2
  43. u
  44. ^
  45. x
  46. 1
  47. x
  48. d
  49. )
  50. 2
  51. 2
  52. L
  53. I
  54. C
  55. (
  56. θ
  57. ;
  58. T
  59. i
  60. )
  61. =
  62. 1
  63. T
  64. i
  65. x
  66. T
  67. i
  68. u
  69. ^
  70. (
  71. x
  72. )
  73. u
  74. (
  75. x
  76. )
  77. 2
  78. 2
  79. L
  80. B
  81. C
  82. (
  83. θ
  84. ;
  85. T
  86. b
  87. )
  88. =
  89. 1
  90. T
  91. b
  92. x
  93. T
  94. b
  95. B
  96. (
  97. u
  98. ^
  99. ,
  100. x
  101. )
  102. 2
  103. 2
  104. L
  105. D
  106. a
  107. t
  108. a
  109. (
  110. θ
  111. ;
  112. T
  113. d
  114. a
  115. t
  116. a
  117. )
  118. =
  119. 1
  120. T
  121. d
  122. a
  123. t
  124. a
  125. x
  126. T
  127. d
  128. a
  129. t
  130. a
  131. u
  132. ^
  133. (
  134. x
  135. )
  136. u
  137. (
  138. x
  139. )
  140. 2
  141. 2
  142. \begin{aligned} \mathcal{L}_{PDE}\left(\boldsymbol{\theta} ; \mathcal{T}_{f}\right) &=\frac{1}{\left|\mathcal{T}_{f}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{f}}\left\|f\left(\mathbf{x} ; \frac{\partial \hat{u}}{\partial x_{1}}, \ldots, \frac{\partial \hat{u}}{\partial x_{d}} ; \frac{\partial^{2} \hat{u}}{\partial x_{1} \partial x_{1}}, \ldots, \frac{\partial^{2} \hat{u}}{\partial x_{1} \partial x_{d}} \right)\right\|_{2}^{2} \\ \mathcal{L}_{IC}\left(\boldsymbol{\theta}; \mathcal{T}_{i}\right) &=\frac{1}{\left|\mathcal{T}_{i}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{i}}\|\hat{u}(\mathbf{x})-u(\mathbf{x})\|_{2}^{2} \\ \mathcal{L}_{BC}\left(\boldsymbol{\theta}; \mathcal{T}_{b}\right) &=\frac{1}{\left|\mathcal{T}_{b}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{b}}\|\mathcal{B}(\hat{u}, \mathbf{x})\|_{2}^{2}\\ \mathcal{L}_{Data}\left(\boldsymbol{\theta}; \mathcal{T}_{data}\right) &=\frac{1}{\left|\mathcal{T}_{data}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{data}}\|\hat{u}(\mathbf{x})-u(\mathbf{x})\|_{2}^{2} \end{aligned}
  143. LPDE​(θ;Tf​)LIC​(θ;Ti​)LBC​(θ;Tb​)LData​(θ;Tdata​)​=∣Tf​∣1xTf​∑​∥∥∥∥​f(x;∂x1​∂u^​,…,∂xd​∂u^​;∂x1​∂x1​∂2u^​,…,∂x1​∂xd​∂2u^​)∥∥∥∥​22​=∣Ti​∣1xTi​∑​∥u^(x)−u(x)∥22​=∣Tb​∣1xTb​∑​∥B(u^,x)∥22​=∣Tdata​∣1xTdata​∑​∥u^(x)−u(x)∥22​​
  144. w
  145. f
  146. w_{f}
  147. wf​,
  148. w
  149. i
  150. w_{i}
  151. wi​、
  152. w
  153. b
  154. w_{b}
  155. wb​和
  156. w
  157. d
  158. w_{d}
  159. wd​是权重。
  160. T
  161. f
  162. \mathcal{T}_{f}
  163. Tf​,
  164. T
  165. i
  166. \mathcal{T}_{i}
  167. Ti​、
  168. T
  169. b
  170. \mathcal{T}_{b}
  171. Tb​和
  172. T
  173. d
  174. a
  175. t
  176. a
  177. \mathcal{T}_{data}
  178. Tdata​表示来自PDE,初值、边值以及真值的residual points。这里的
  179. T
  180. f
  181. Ω
  182. \mathcal{T}_{f} \subset \Omega
  183. Tf​⊂Ω是一组预定义的点来衡量神经网络输出
  184. u
  185. ^
  186. \hat{u}
  187. u^与PDE的匹配程度。

3.求解问题定义

  1. d
  2. 2
  3. u
  4. d
  5. x
  6. 2
  7. =
  8. 0.49
  9. sin
  10. (
  11. 0.7
  12. x
  13. )
  14. 2.25
  15. cos
  16. (
  17. 1.5
  18. x
  19. )
  20. u
  21. (
  22. 10
  23. )
  24. =
  25. sin
  26. (
  27. 7
  28. )
  29. +
  30. cos
  31. (
  32. 15
  33. )
  34. +
  35. 1
  36. u
  37. (
  38. 10
  39. )
  40. =
  41. sin
  42. (
  43. 7
  44. )
  45. +
  46. cos
  47. (
  48. 15
  49. )
  50. 1
  51. \begin{aligned} \frac{\mathrm{d}^2 u}{\mathrm{~d} x^2} &=-0.49 \cdot \sin (0.7 x)-2.25 \cdot \cos (1.5 x) \\ u(-10) &=-\sin (7)+\cos (15)+1 \\ u(10) &=\sin (7)+\cos (15)-1 \end{aligned}
  52. dx2d2uu(−10)u(10)​=−0.49sin(0.7x)−2.25cos(1.5x)=−sin(7)+cos(15)+1=sin(7)+cos(15)−1

真实解为

  1. u
  2. :
  3. =
  4. sin
  5. (
  6. 0.7
  7. x
  8. )
  9. +
  10. cos
  11. (
  12. 1.5
  13. x
  14. )
  15. 0.1
  16. x
  17. u:=\sin (0.7 x)+\cos (1.5 x)-0.1 x
  18. u:=sin(0.7x)+cos(1.5x)−0.1x

4.结果展示

请添加图片描述

请添加图片描述


本文转载自: https://blog.csdn.net/weixin_45521594/article/details/127659979
版权归原作者 pinn山里娃 所有, 如有侵权,请联系我们删除。

“PINN深度学习求解微分方程系列一:求解框架”的评论:

还没有评论