0


Datawhale X 李宏毅苹果书 AI夏令营-深度学习入门 Task 2

深度学习第一步:定义模型

线性模型

模型偏置:模型无法模拟真实状态的限制性。
所有分段线性函数都等于常数加上一组函数的总和。

Sigmoid function: 增加了非线性的特点

  1. s
  2. i
  3. g
  4. m
  5. o
  6. i
  7. d
  8. (
  9. b
  10. +
  11. w
  12. x
  13. 1
  14. )
  15. =
  16. 1
  17. 1
  18. +
  19. e
  20. (
  21. b
  22. +
  23. w
  24. x
  25. 1
  26. )
  27. sigmoid(b+wx_{1}) = \cfrac{1}{1 + {e^{-(b+wx_{1}) } }}
  28. sigmoid(b+wx1​)=1+e−(b+wx1​)1
  29. 为了能让模型更好的贴合真实情况,通常需要更多未知参数来调整已有的模型,所以采用sigmoid函数的集合来表示模型,即:

将表示真实曲线的线性函数:

  1. y
  2. =
  3. b
  4. +
  5. w
  6. x
  7. 1
  8. y=b+wx_{1}
  9. y=b+wx1

变为:

  1. y
  2. =
  3. c
  4. s
  5. i
  6. g
  7. m
  8. o
  9. i
  10. d
  11. (
  12. b
  13. +
  14. w
  15. x
  16. )
  17. y=c\cdot sigmoid\left ( b+wx \right )
  18. y=csigmoid(b+wx)
  19. 当使用一组sigmoid方程来阶段性表达真实曲线时,形式如下:
  20. y
  21. =
  22. b
  23. +
  24. {
  25. c
  26. 1
  27. s
  28. i
  29. g
  30. m
  31. o
  32. i
  33. d
  34. (
  35. b
  36. 1
  37. +
  38. w
  39. 1
  40. x
  41. 1
  42. )
  43. c
  44. 2
  45. s
  46. i
  47. g
  48. m
  49. o
  50. i
  51. d
  52. (
  53. b
  54. 2
  55. +
  56. w
  57. 2
  58. x
  59. 2
  60. )
  61. c
  62. 3
  63. s
  64. i
  65. g
  66. m
  67. o
  68. i
  69. d
  70. (
  71. b
  72. 3
  73. +
  74. w
  75. 3
  76. x
  77. 3
  78. )
  79. y=b+\left\{\begin{matrix} c_{1}sigmoid\left ( b_{1}+w_{1}x_{1} \right ) \\ c_{2}sigmoid\left(b_{2}+w_{2}x_{2}\right) \\ c_{3}sigmoid\left(b_{3}+w_{3}x_{3} \right) \end{matrix}\right.
  80. y=b+⎩⎨⎧​c1sigmoid(b1​+w1x1​)c2sigmoid(b2​+w2x2​)c3sigmoid(b3​+w3x3​)​
  81. 这个线性方程组可以整理为:
  82. y
  83. =
  84. b
  85. +
  86. i
  87. c
  88. i
  89. s
  90. i
  91. g
  92. m
  93. o
  94. i
  95. d
  96. (
  97. b
  98. i
  99. +
  100. j
  101. w
  102. i
  103. j
  104. x
  105. j
  106. )
  107. y= b+\sum_{i}^{} c_{i} sigmoid\left ( b_{i}+\sum_{j}^{} w_{ij} x_{j} \right )
  108. y=b+i∑​cisigmoid(bi​+j∑​wijxj​)
  109. 此时如果用**r**来表示sigmoid括号中的值,那么可以得到:
  110. r
  111. 1
  112. =
  113. b
  114. 1
  115. +
  116. w
  117. 11
  118. x
  119. 1
  120. +
  121. w
  122. 12
  123. x
  124. 2
  125. +
  126. w
  127. 13
  128. x
  129. 3
  130. r
  131. 2
  132. =
  133. b
  134. 2
  135. +
  136. w
  137. 21
  138. x
  139. 1
  140. +
  141. w
  142. 22
  143. x
  144. 2
  145. +
  146. w
  147. 23
  148. x
  149. 3
  150. r
  151. 3
  152. =
  153. b
  154. 3
  155. +
  156. w
  157. 31
  158. x
  159. 1
  160. +
  161. w
  162. 32
  163. x
  164. 2
  165. +
  166. w
  167. 33
  168. x
  169. 3
  170. \begin{matrix} r_{1}=b_{1}+w_{11}x_{1}+w_{12}x_{2}+w_{13}x_{3} \\ r_{2}=b_{2}+w_{21}x_{1}+w_{22}x_{2}+w_{23}x_{3} \\ r_{3}=b_{3}+w_{31}x_{1}+w_{32}x_{2}+w_{33}x_{3} \end{matrix}
  171. r1​=b1​+w11x1​+w12x2​+w13x3r2​=b2​+w21x1​+w22x2​+w23x3r3​=b3​+w31x1​+w32x2​+w33x3​​
  172. 通过矩阵的方式计算可表示为:
  173. [
  174. r
  175. 1
  176. r
  177. 2
  178. r
  179. 3
  180. ]
  181. =
  182. [
  183. b
  184. 1
  185. b
  186. 2
  187. b
  188. 3
  189. ]
  190. +
  191. [
  192. w
  193. 11
  194. w
  195. 12
  196. w
  197. 13
  198. w
  199. 21
  200. w
  201. 22
  202. w
  203. 23
  204. w
  205. 31
  206. w
  207. 32
  208. w
  209. 33
  210. ]
  211. [
  212. x
  213. 1
  214. x
  215. 2
  216. x
  217. 3
  218. ]
  219. \begin{bmatrix} r_{1}\\ r_{2}\\ r_{3} \end{bmatrix} =\begin{bmatrix} b_{1}\\ b_{2}\\ b_{3} \end{bmatrix} +\begin{bmatrix} w_{11} &w_{12}&w_{13}\\ w_{21} &w_{22} &w_{23}\\ w_{31}&w_{32}&w_{33} \end{bmatrix} \begin{bmatrix} x_{1}\\ x_{2}\\ x_{3} \end{bmatrix}
  220. r1r2r3​​​=​b1b2b3​​​+​w11w21w31​​w12w22w32​​w13w23w33​​​​x1x2x3​​​
  221. 即:
  222. r
  223. =
  224. b
  225. +
  226. w
  227. x
  228. r= b+wx
  229. r=b+wx

所以当用a来表示sigmoid方程时,可得:

  1. a
  2. =
  3. s
  4. i
  5. g
  6. m
  7. o
  8. i
  9. d
  10. (
  11. r
  12. )
  13. =
  14. 1
  15. 1
  16. +
  17. e
  18. r
  19. a=sigmoid\left(r\right)=\cfrac{1}{1+ e^{-r } }
  20. a=sigmoid(r)=1+er1
  21. 如果用希腊字母sigma表示sigmoid函数,那么就有:
  22. a
  23. =
  24. σ
  25. (
  26. r
  27. )
  28. a=\sigma\left(r\right)
  29. a=σ(r)
  30. 用线性代数的矩阵来表示上述函数,即为:
  31. y
  32. =
  33. b
  34. +
  35. c
  36. T
  37. a
  38. y=b+c^{T}a
  39. y=b+cTa
  40. 合并之后为:
  41. y
  42. =
  43. b
  44. 1
  45. +
  46. c
  47. T
  48. σ
  49. (
  50. b
  51. 2
  52. +
  53. w
  54. x
  55. )
  56. y=b_{1} +c^{T} \sigma \left ( b_{2} +wx \right )
  57. y=b1​+cTσ(b2​+wx)
  58. 其中,**x**为函数的特征,**b1**为未知参数,**b2**为向量。

最后对于上述参数b1、w、b2、c,都用希腊字母Theta来表示,并进行后续优化。

深度学习第二步:从训练数据中定义损失

损失(Loss)

  1. 损失是将所有的估测值和真实值之间的差距总和,即为:
  2. L
  3. =
  4. 1
  5. N
  6. n
  7. e
  8. n
  9. L=\frac{1}{N}\sum_{n}e_{n}
  10. L=N1n∑​en

随机找到一组初始数值

  1. θ
  2. 0
  3. \theta ^{0}
  4. θ0 然后对每一个未知参数都计算对L的微分之后再集合起来,组成一个向量**g**梯度:
  5. g
  6. =
  7. [
  8. L
  9. θ
  10. 1
  11. θ
  12. =
  13. θ
  14. 0
  15. L
  16. θ
  17. 2
  18. θ
  19. =
  20. θ
  21. 0
  22. ]
  23. g=\begin{bmatrix} \frac{\partial L}{\partial \theta _{1}}|\theta =\theta ^{0} \\ \frac{\partial L}{\partial \theta _{2}}|\theta =\theta ^{0} \\ \vdots \end{bmatrix}
  24. g=​∂θ1​∂L​∣θ=θ0∂θ2​∂L​∣θ=θ0⋮​​

向量g还可以写成:

  1. g
  2. =
  3. L
  4. (
  5. θ
  6. 0
  7. )
  8. g=\bigtriangledown L\left(\theta ^{0}\right)
  9. g=▽L0)

参数Theta的更新

  1. θ
  2. 1
  3. θ
  4. 0
  5. η
  6. g
  7. \theta ^{1}\longleftarrow \theta ^{0} - \eta g
  8. θ1⟵θ0−ηg

sigmoid函数与ReLU

ReLU:修正线性单元(Rectified Linear Unit)

  1. f
  2. (
  3. x
  4. )
  5. =
  6. m
  7. a
  8. x
  9. (
  10. 0
  11. ,
  12. x
  13. )
  14. f\left(x\right)=max\left(0,x\right)
  15. f(x)=max(0,x)

当输入值为负时,函数返回值为0,当输入值为正时,函数返回值为输入值本身,此时梯度恒为1。

ReLU函数的优点:

  • 函数简单,提升网络整体效率

  • 缓解梯度消失的问题

    1. 缺点:
  • 输入值为负时,函数恒为0,神经网络无法学习(死亡ReLU)。 解决方案:使用变体Leaky ReLU: f ( x ) = m a x ( 0.01 x , x ) f\left(x\right)=max\left(0.01x,x\right) f(x)=max(0.01x,x)

由于两个ReLU函数才能等效于一个sigmoid,所以使用ReLU函数来表示模型的时候,

  1. y
  2. =
  3. b
  4. +
  5. i
  6. c
  7. i
  8. s
  9. i
  10. g
  11. m
  12. o
  13. i
  14. d
  15. (
  16. 0
  17. ,
  18. b
  19. i
  20. +
  21. j
  22. w
  23. i
  24. j
  25. x
  26. j
  27. )
  28. y=b+\sum_{i}^{}c_{i}sigmoid\left(0,b_{i}+\sum_{j}^{}w_{ij}x_{j}\right)
  29. y=b+i∑​cisigmoid(0,bi​+j∑​wijxj​)
  30. 可以表示为:
  31. y
  32. =
  33. b
  34. +
  35. 2
  36. i
  37. c
  38. i
  39. m
  40. a
  41. x
  42. (
  43. 0
  44. ,
  45. b
  46. i
  47. +
  48. j
  49. w
  50. i
  51. j
  52. x
  53. j
  54. )
  55. y=b+\sum_{2i}^{}c_{i}max\left(0,b_{i}+\sum_{j}^{}w_{ij}x_{j}\right)
  56. y=b+2i∑​cimax(0,bi​+j∑​wijxj​)

在深度学习的过程中,每一个函数被称为神经元,通过改变权重得到新参数的学习网络就被称为神经网络。

深度学习第三步: 参数优化

在优化过程中要防止过拟合现象出现。
过拟合:当算法与其训练数据过于接近甚至完全吻合时,就会发生过拟合,这会导致模型无法根据训练数据以外的任何数据做出准确的预测或结论。


本文转载自: https://blog.csdn.net/weixin_68008746/article/details/141547371
版权归原作者 砂糖橘吐司 所有, 如有侵权,请联系我们删除。

“Datawhale X 李宏毅苹果书 AI夏令营-深度学习入门 Task 2”的评论:

还没有评论