0


手把手教你用numpy搭建一个单隐层神经网络

在阅读本文之前,请确保你已经有了一定的神经网络基础(可先看一遍西瓜书)。

本文采用的是标准BP算法,即每次仅针对一个样例更新权重和阈值。
本文将搭建用于分类的单隐层BP神经网络。

目录

一、理论部分

1.1 正向计算

  1. \textcolor{red}{符号说明}
  2. 符号说明

设我们的单隐层BP神经网络有

  1. m
  2. m
  3. m 个**输入神经元**,
  4. n
  5. n
  6. n 个**输出神经元**,
  7. h
  8. h
  9. h 个**隐层神经元**。
  • 权重: 第 i i i 个输入神经元到第 j j j 个隐层神经元的权重记为 v i j v_{ij} vij​,第 i i i 个隐层神经元到第 j j j 个输出神经元的权重记为 w i j w_{ij} wij​;
  • 阈值: 第 i i i 个隐层神经元的阈值记为 γ i \gamma_i γi​,第 i i i 个输出神经元的阈值记为 θ i \theta_i θi​;
  • 输入: 第 k k k 个输入神经元接收到的输入记为 x k x_k xk​,第 k k k 个隐层神经元接收到的输入记为 α k \alpha_k αk​,第 k k k 个输出神经元接收到的输入记为 β k \beta_k βk​;
  • 输出: 第 j j j 个隐层神经元的输出记为 b j b_j bj​,第 j j j 个输出神经元的输出记为 y ^ j \hat{y}_j y^​j​。

  1. x
  2. =
  3. (
  4. x
  5. 1
  6. ,
  7. x
  8. 2
  9. ,
  10. ,
  11. x
  12. n
  13. )
  14. T
  15. \boldsymbol{x}=(x_1,x_2,\cdots,x_n)^{\mathrm T}
  16. x=(x1​,x2​,⋯,xn​)T,激活函数为
  17. σ
  18. (
  19. x
  20. )
  21. \sigma(x)
  22. σ(x),我们定义:
  23. σ
  24. (
  25. x
  26. )
  27. =
  28. (
  29. σ
  30. (
  31. x
  32. 1
  33. )
  34. ,
  35. σ
  36. (
  37. x
  38. 2
  39. )
  40. ,
  41. ,
  42. σ
  43. (
  44. x
  45. n
  46. )
  47. )
  48. T
  49. \sigma(\boldsymbol{x})=(\sigma(x_1),\sigma(x_2),\cdots,\sigma(x_n))^{\mathrm T}
  50. σ(x)=(σ(x1​),σ(x2​),⋯,σ(xn​))T
  51. \textcolor{red}{公式推导}
  52. 公式推导

注意到

  1. α
  2. k
  3. =
  4. i
  5. =
  6. 1
  7. m
  8. v
  9. i
  10. k
  11. x
  12. i
  13. \alpha_k=\sum_{i=1}^m v_{ik}x_i
  14. αk​=∑i=1mvikxi​,如果我们记
  15. α
  16. =
  17. [
  18. α
  19. 1
  20. α
  21. 2
  22. α
  23. h
  24. ]
  25. h
  26. ×
  27. 1
  28. ,
  29. V
  30. =
  31. [
  32. v
  33. 11
  34. v
  35. 21
  36. v
  37. m
  38. 1
  39. v
  40. 12
  41. v
  42. 22
  43. v
  44. m
  45. 2
  46. v
  47. 1
  48. h
  49. v
  50. 2
  51. h
  52. v
  53. m
  54. h
  55. ]
  56. h
  57. ×
  58. m
  59. ,
  60. x
  61. =
  62. [
  63. x
  64. 1
  65. x
  66. 2
  67. x
  68. m
  69. ]
  70. m
  71. ×
  72. 1
  73. \boldsymbol{\alpha}= \begin{bmatrix} \alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_h \end{bmatrix}_{h\times 1}, \quad \boldsymbol{V}= \begin{bmatrix} v_{11} & v_{21} & \cdots & v_{m1} \\ v_{12} & v_{22} & \cdots & v_{m2} \\ \vdots & \vdots & & \vdots \\ v_{1h} & v_{2h} & \cdots & v_{mh} \\ \end{bmatrix}_{h\times m},\quad \boldsymbol{x}= \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_m \end{bmatrix}_{m\times 1}
  74. α=⎣⎢⎢⎢⎡​α1​α2​⋮αh​​⎦⎥⎥⎥⎤​h×1​,V=⎣⎢⎢⎢⎡​v11v12​⋮v1h​​v21v22​⋮v2h​​⋯⋯⋯​vm1vm2​⋮vmh​​⎦⎥⎥⎥⎤​h×m​,x=⎣⎢⎢⎢⎡​x1x2​⋮xm​​⎦⎥⎥⎥⎤​m×1

则有

  1. α
  2. =
  3. V
  4. x
  5. \boldsymbol{\alpha}=\boldsymbol{Vx}
  6. α=Vx

再令

  1. b
  2. =
  3. (
  4. b
  5. 1
  6. ,
  7. b
  8. 2
  9. ,
  10. ,
  11. b
  12. h
  13. )
  14. T
  15. ,
  16. γ
  17. =
  18. (
  19. γ
  20. 1
  21. ,
  22. γ
  23. 2
  24. ,
  25. ,
  26. γ
  27. h
  28. )
  29. T
  30. \boldsymbol{b}=(b_1,b_2,\cdots,b_h)^{\mathrm T},\,\boldsymbol{\gamma}=(\gamma_1,\gamma_2,\cdots,\gamma_h)^{\mathrm T}
  31. b=(b1​,b2​,⋯,bh​)T,γ=(γ1​,γ2​,⋯,γh​)T,从而
  32. b
  33. =
  34. σ
  35. (
  36. α
  37. γ
  38. )
  39. =
  40. σ
  41. (
  42. V
  43. x
  44. γ
  45. )
  46. \boldsymbol{b}=\sigma(\boldsymbol \alpha-\boldsymbol{\gamma})=\sigma(\boldsymbol{Vx}-\boldsymbol{\gamma})
  47. b=σ(α−γ)=σ(Vx−γ)。

同理可得,

  1. W
  2. n
  3. ×
  4. h
  5. \boldsymbol{W}_{n\times h}
  6. Wn×h 为隐层和输出层之间的**权重矩阵**,且有
  7. β
  8. =
  9. W
  10. b
  11. ,
  12. y
  13. ^
  14. =
  15. σ
  16. (
  17. β
  18. θ
  19. )
  20. =
  21. σ
  22. (
  23. W
  24. b
  25. θ
  26. )
  27. \boldsymbol{\beta}=\boldsymbol{W}\boldsymbol{b},\quad \boldsymbol{\hat{y}}=\sigma(\boldsymbol{\beta}-\boldsymbol{\theta})=\sigma(\boldsymbol{W}\boldsymbol{b}-\boldsymbol{\theta})
  28. β=Wb,y^​=σ(β−θ)=σ(Wb−θ)

进一步有

  1. y
  2. ^
  3. =
  4. σ
  5. (
  6. W
  7. σ
  8. (
  9. V
  10. x
  11. γ
  12. )
  13. θ
  14. )
  15. \boldsymbol{\hat{y}}=\sigma(\boldsymbol{W}\sigma(\boldsymbol{Vx}-\boldsymbol{\gamma})-\boldsymbol{\theta})
  16. y^​=σ(Wσ(Vx−γ)−θ)。

于是我们就得到了神经网络的输出。

1.2 反向传播

对于给定的训练样例

  1. (
  2. x
  3. ,
  4. y
  5. )
  6. (\boldsymbol{x},\boldsymbol{y})
  7. (x,y),神经网络的输出为
  8. y
  9. ^
  10. =
  11. σ
  12. (
  13. β
  14. θ
  15. )
  16. \boldsymbol{\hat{y}}=\sigma(\boldsymbol{\beta}-\boldsymbol{\theta})
  17. y^​=σ(β−θ),从而误差为
  18. E
  19. =
  20. y
  21. ^
  22. y
  23. 2
  24. =
  25. j
  26. =
  27. 1
  28. n
  29. (
  30. y
  31. ^
  32. j
  33. y
  34. j
  35. )
  36. 2
  37. E=\Vert \boldsymbol{\hat{y}}-\boldsymbol{y} \Vert^2=\sum_{j=1}^n(\hat{y}_j-y_j)^2
  38. E=∥y^​−y2=j=1n​(y^​j​−yj​)2

为消掉求导后多出来的系数

  1. 2
  2. 2
  3. 2,我们做一个处理,即令
  4. E
  5. =
  6. 1
  7. 2
  8. j
  9. =
  10. 1
  11. n
  12. (
  13. y
  14. ^
  15. j
  16. y
  17. j
  18. )
  19. 2
  20. E=\frac12\sum_{j=1}^n(\hat{y}_j-y_j)^2
  21. E=21j=1n​(y^​j​−yj​)2

我们采用梯度下降策略来最小化误差,即

  1. w
  2. i
  3. j
  4. :
  5. =
  6. w
  7. i
  8. j
  9. η
  10. E
  11. w
  12. i
  13. j
  14. ,
  15. θ
  16. j
  17. :
  18. =
  19. θ
  20. j
  21. η
  22. E
  23. θ
  24. j
  25. w_{ij}:=w_{ij}-\eta\frac{\partial E}{\partial w_{ij}},\quad \theta_j:=\theta_j-\eta\frac{\partial E}{\partial \theta_j}
  26. wij​:=wij​−η∂wij​∂E​,θj​:=θj​−η∂θj​∂E

其中

  1. E
  2. w
  3. i
  4. j
  5. =
  6. E
  7. y
  8. ^
  9. j
  10. y
  11. ^
  12. j
  13. β
  14. j
  15. β
  16. j
  17. w
  18. i
  19. j
  20. =
  21. (
  22. y
  23. ^
  24. j
  25. y
  26. j
  27. )
  28. σ
  29. (
  30. β
  31. j
  32. θ
  33. j
  34. )
  35. b
  36. i
  37. \begin{aligned} \frac{\partial E}{\partial w_{ij}}&=\textcolor{red}{\frac{\partial E}{\partial \hat{y}_j}} \cdot \textcolor{blue}{\frac{\partial \hat{y}_j}{\partial \beta_j}} \cdot \textcolor{green}{\frac{\partial \beta_j}{\partial w_{ij}}}\\ &=\textcolor{red}{(\hat{y}_j-y_j)} \cdot \textcolor{blue}{\sigma'(\beta_j-\theta_j)}\cdot \textcolor{green}{b_i} \\ \end{aligned}
  38. ∂wij​∂E​​=∂y^​j​∂E​⋅∂βj​∂y^​j​​⋅∂wij​∂βj​​=(y^​j​−yj​)⋅σ′(βj​−θj​)⋅bi​​

  1. g
  2. j
  3. =
  4. (
  5. y
  6. ^
  7. j
  8. y
  9. j
  10. )
  11. σ
  12. (
  13. β
  14. j
  15. θ
  16. j
  17. )
  18. g_j =- \textcolor{red}{(\hat{y}_j-y_j)} \cdot \textcolor{blue}{\sigma'(\beta_j-\theta_j)}
  19. gj​=−(y^​j​−yj​)⋅σ′(βj​−θj​),则可得知
  20. Δ
  21. w
  22. i
  23. j
  24. =
  25. η
  26. g
  27. j
  28. b
  29. i
  30. \Delta w_{ij}=\eta g_jb_i
  31. Δwij​=ηgj​bi​。另一方面
  32. E
  33. θ
  34. j
  35. =
  36. E
  37. y
  38. ^
  39. j
  40. y
  41. ^
  42. j
  43. θ
  44. j
  45. =
  46. (
  47. y
  48. ^
  49. j
  50. y
  51. j
  52. )
  53. (
  54. σ
  55. (
  56. β
  57. j
  58. θ
  59. j
  60. )
  61. )
  62. =
  63. g
  64. j
  65. \begin{aligned} \frac{\partial E}{\partial \theta_j}&= \textcolor{red}{\frac{\partial E}{\partial \hat{y}_j}} \cdot \textcolor{blue}{\frac{\partial \hat{y}_j}{\partial \theta_j}} \\ &=\textcolor{red}{(\hat{y}_j-y_j)} \cdot \textcolor{blue}{(-\sigma'(\beta_j-\theta_j))}=g_j \end{aligned}
  66. ∂θj​∂E​​=∂y^​j​∂E​⋅∂θj​∂y^​j​​=(y^​j​−yj​)⋅(−σ′(βj​−θj​))=gj​​

因此

  1. Δ
  2. θ
  3. j
  4. =
  5. η
  6. g
  7. j
  8. \Delta \theta_j=-\eta g_j
  9. Δθj​=−ηgj​。

  1. Δ
  2. W
  3. =
  4. η
  5. g
  6. b
  7. T
  8. \Delta\boldsymbol{W}=\eta \boldsymbol{g}\boldsymbol{b}^{\mathrm{T}}
  9. ΔWgbT
  10. Δ
  11. θ
  12. =
  13. η
  14. g
  15. \Delta \boldsymbol{\theta}=-\eta\boldsymbol{g}
  16. Δθ=−ηg,于是得到权重与阈值的更新公式:
  17. W
  18. :
  19. =
  20. W
  21. +
  22. Δ
  23. W
  24. ,
  25. θ
  26. :
  27. =
  28. θ
  29. +
  30. Δ
  31. θ
  32. \boldsymbol{W}:=\boldsymbol{W}+\Delta\boldsymbol{W},\quad \boldsymbol{\theta}:= \boldsymbol{\theta}+ \Delta\boldsymbol{\theta}
  33. W:=WW,θ:=θ+Δθ

此外,还有

  1. v
  2. i
  3. j
  4. :
  5. =
  6. v
  7. i
  8. j
  9. η
  10. E
  11. v
  12. i
  13. j
  14. ,
  15. γ
  16. j
  17. :
  18. =
  19. γ
  20. j
  21. η
  22. E
  23. γ
  24. j
  25. v_{ij}:=v_{ij}-\eta\frac{\partial E}{\partial v_{ij}},\quad \gamma_j:=\gamma_j-\eta\frac{\partial E}{\partial \gamma_j}
  26. vij​:=vij​−η∂vij​∂E​,γj​:=γj​−η∂γj​∂E

其中

  1. E
  2. v
  3. i
  4. j
  5. =
  6. k
  7. =
  8. 1
  9. n
  10. E
  11. y
  12. ^
  13. k
  14. y
  15. ^
  16. k
  17. β
  18. k
  19. β
  20. k
  21. b
  22. j
  23. b
  24. j
  25. α
  26. j
  27. α
  28. j
  29. v
  30. i
  31. j
  32. =
  33. k
  34. =
  35. 1
  36. n
  37. (
  38. g
  39. k
  40. )
  41. w
  42. j
  43. k
  44. σ
  45. (
  46. α
  47. j
  48. γ
  49. j
  50. )
  51. x
  52. i
  53. \begin{aligned} \frac{\partial E}{\partial v_{ij}}&=\sum_{k=1}^n \textcolor{red}{\frac{\partial E}{\partial \hat{y}_k}}\cdot \textcolor{blue}{\frac{\partial \hat{y}_k}{\partial \beta_k}}\cdot \textcolor{green}{\frac{\partial \beta_k}{\partial b_j}}\cdot \textcolor{magenta}{\frac{\partial b_j}{\partial\alpha_j}}\cdot \textcolor{orange}{\frac{\partial \alpha_j}{\partial v_{ij}}}\\ &=\sum_{k=1}^n (-g_k)\cdot \textcolor{green}{w_{jk}}\cdot \textcolor{magenta}{\sigma'(\alpha_j-\gamma_j)}\cdot \textcolor{orange}{x_i}\\ \end{aligned}
  54. ∂vij​∂E​​=k=1∑n​∂y^​k​∂E​⋅∂βk​∂y^​k​​⋅∂bj​∂βk​​⋅∂αj​∂bj​​⋅∂vij​∂αj​​=k=1∑n​(−gk​)⋅wjk​⋅σ′(αj​−γj​)⋅xi​​

  1. e
  2. j
  3. =
  4. k
  5. =
  6. 1
  7. n
  8. (
  9. g
  10. k
  11. )
  12. w
  13. j
  14. k
  15. σ
  16. (
  17. α
  18. j
  19. γ
  20. j
  21. )
  22. e_j=-\sum_{k=1}^n (-g_k)\cdot \textcolor{green}{w_{jk}}\cdot \textcolor{magenta}{\sigma'(\alpha_j-\gamma_j)}
  23. ej​=−∑k=1n​(−gk​)⋅wjk​⋅σ′(αj​−γj​),则得到
  24. Δ
  25. v
  26. i
  27. j
  28. =
  29. η
  30. e
  31. j
  32. x
  33. i
  34. \Delta v_{ij}=\eta e_jx_i
  35. Δvij​=ηej​xi​。另一方面
  36. E
  37. γ
  38. j
  39. =
  40. k
  41. =
  42. 1
  43. n
  44. E
  45. y
  46. ^
  47. k
  48. y
  49. ^
  50. k
  51. β
  52. k
  53. β
  54. k
  55. b
  56. j
  57. b
  58. j
  59. γ
  60. j
  61. =
  62. k
  63. =
  64. 1
  65. n
  66. (
  67. g
  68. k
  69. )
  70. w
  71. j
  72. k
  73. (
  74. σ
  75. (
  76. α
  77. j
  78. γ
  79. j
  80. )
  81. )
  82. =
  83. e
  84. j
  85. \begin{aligned} \frac{\partial E}{\partial \gamma_j}&=\sum_{k=1}^n \textcolor{red}{\frac{\partial E}{\partial \hat{y}_k}}\cdot \textcolor{blue}{\frac{\partial \hat{y}_k}{\partial \beta_k}}\cdot \textcolor{green}{\frac{\partial \beta_k}{\partial b_j}}\cdot \textcolor{magenta}{\frac{\partial b_j}{\partial\gamma_j}}\\ &=\sum_{k=1}^n (-g_k)\cdot \textcolor{green}{w_{jk}}\cdot \textcolor{magenta}{(-\sigma'(\alpha_j-\gamma_j))}=e_j \\ \end{aligned}
  86. ∂γj​∂E​​=k=1n​∂y^​k​∂E​⋅∂βk​∂y^​k​​⋅∂bj​∂βk​​⋅∂γj​∂bj​​=k=1n​(−gk​)⋅wjk​⋅(−σ′(αj​−γj​))=ej​​

因此

  1. Δ
  2. γ
  3. j
  4. =
  5. η
  6. e
  7. j
  8. \Delta \gamma_j=-\eta e_j
  9. Δγj​=−ηej​。

  1. Δ
  2. V
  3. =
  4. η
  5. e
  6. x
  7. T
  8. \Delta\boldsymbol{V}=\eta \boldsymbol{e}\boldsymbol{x}^{\mathrm{T}}
  9. ΔVexT
  10. Δ
  11. γ
  12. =
  13. η
  14. e
  15. \Delta \boldsymbol{\gamma}=-\eta\boldsymbol{e}
  16. Δγ=−ηe,于是得到权重与阈值的更新公式:
  17. V
  18. :
  19. =
  20. V
  21. +
  22. Δ
  23. V
  24. ,
  25. γ
  26. :
  27. =
  28. γ
  29. +
  30. Δ
  31. γ
  32. \boldsymbol{V}:=\boldsymbol{V}+\Delta\boldsymbol{V},\quad \boldsymbol{\gamma}:= \boldsymbol{\gamma}+ \Delta\boldsymbol{\gamma}
  33. V:=VV,γ:=γ+Δγ

二、实现部分

2.1 算法伪码

两个梯度项可以表示成:

  1. g
  2. =
  3. (
  4. y
  5. y
  6. ^
  7. )
  8.   
  9.   
  10. σ
  11. (
  12. β
  13. θ
  14. )
  15. e
  16. =
  17. W
  18. T
  19. g
  20.   
  21.   
  22. σ
  23. (
  24. α
  25. γ
  26. )
  27. \begin{aligned} \boldsymbol{g}&=(\boldsymbol{y}-\boldsymbol{\hat{y}}) \;*\; \sigma'(\boldsymbol{\beta}-\boldsymbol{\theta}) \\ \boldsymbol{e}&=\boldsymbol{W}^{\mathrm T}\boldsymbol{g}\;*\;\sigma'(\boldsymbol{\alpha}-\boldsymbol{\gamma})\\ \end{aligned}
  28. ge​=(yy^​)∗σ′(β−θ)=WTg∗σ′(α−γ)​

其中

  1. *
  2. 代表**按元素**运算。基于此,我们可以写出算法伪码:

  1. 输入
  2. :训练集
  3. D
  4. ,学习率
  5. η
  6. 过程:
  7. 1. 随机初始化
  8. V
  9. ,
  10. W
  11. ,
  12. γ
  13. ,
  14. θ
  15. 2.
  16. r
  17. e
  18. p
  19. e
  20. a
  21. t
  22. 3.
  23.   
  24. f
  25. o
  26. r
  27.   
  28. a
  29. l
  30. l
  31.   
  32. (
  33. x
  34. ,
  35. y
  36. )
  37. D
  38. d
  39. o
  40. 4.
  41.       
  42. 计算输入和输出
  43. α
  44. ,
  45. b
  46. ,
  47. β
  48. ,
  49. y
  50. ^
  51. 5.
  52.       
  53. 计算梯度项
  54. g
  55. ,
  56. e
  57. 6.
  58.       
  59. 计算改变量
  60. Δ
  61. W
  62. ,
  63. Δ
  64. θ
  65. ,
  66. Δ
  67. V
  68. ,
  69. Δ
  70. γ
  71. 7.
  72.       
  73. 更新
  74. W
  75. ,
  76. θ
  77. ,
  78. V
  79. ,
  80. γ
  81. 8.
  82.   
  83. e
  84. n
  85. d
  86.   
  87. f
  88. o
  89. r
  90. 9.
  91. u
  92. n
  93. t
  94. i
  95. l
  96. E
  97. <
  98. ϵ
  99. 或迭代次数达到某个值
  100. 输出
  101. :训练好的神经网络
  102. \begin{aligned} &\text{{\bf 输入}:训练集 $D$,学习率 $\eta$} \\ &\text{\bf 过程:} \\ &\text{1. 随机初始化 $\boldsymbol{V, W, \gamma, \theta}$} \\ &\text{2. $\mathrm{\bf repeat}$} \\ &\text{3. $\quad\;$ $\mathrm{\bf for\; all\;}$ $\!(\boldsymbol{x},\boldsymbol{y})\in D$ $\mathrm{\bf \,do}$} \\ &\text{4. $\quad\quad\;\;\;$ 计算输入和输出 $\boldsymbol{\alpha, b, \beta, \hat{y}}$ } \\ &\text{5. $\quad\quad\;\;\;$ 计算梯度项 $\boldsymbol{g, e}$ } \\ &\text{6. $\quad\quad\;\;\;$ 计算改变量 $\boldsymbol{\Delta W,\Delta \theta, \Delta V,\Delta \gamma}$ } \\ &\text{7. $\quad\quad\;\;\;$ 更新 $\boldsymbol{W, \theta, V,\gamma}$ } \\ &\text{8. $\quad\;$ $\mathrm{\bf end\;for}$} \\ &\text{9. $\mathrm{\bf until}\,$ $E<\epsilon\,$ 或迭代次数达到某个值} \\ &\text{{\bf 输出}:训练好的神经网络} \\ \end{aligned}
  103. ​输入:训练集 D,学习率 η过程:1. 随机初始化 V,W,γ,θ2. repeat3. forall (x,y)∈D do4. 计算输入和输出 α,b,β,y^​; 5. 计算梯度项 g,e 6. 计算改变量 ΔW,Δθ,ΔV,Δγ; 7. 更新 W,θ,V,γ; 8. endfor9. until E 或迭代次数达到某个值输出:训练好的神经网络​

有了矩阵和向量化的表述,我们的单隐层神经网络可以简洁地表示成如下形式,这种形式也方便我们后续的编程。

在这里插入图片描述

假设我们的激活函数采用 Sigmoid 函数,利用它的性质:

  1. σ
  2. (
  3. x
  4. )
  5. =
  6. σ
  7. (
  8. x
  9. )
  10.   
  11.   
  12. (
  13. 1
  14. σ
  15. (
  16. x
  17. )
  18. )
  19. \sigma'(\boldsymbol{x})=\sigma(\boldsymbol{x})\;*\;(\boldsymbol{1}-\sigma(\boldsymbol{x}))
  20. σ′(x)=σ(x)∗(1−σ(x)),我们的两个梯度项变为:
  21. g
  22. =
  23. (
  24. y
  25. y
  26. ^
  27. )
  28.   
  29.   
  30. y
  31. ^
  32.   
  33.   
  34. (
  35. 1
  36. y
  37. ^
  38. )
  39. e
  40. =
  41. W
  42. T
  43. g
  44.   
  45.   
  46. b
  47.   
  48.   
  49. (
  50. 1
  51. b
  52. )
  53. \begin{aligned} \boldsymbol{g}&=(\boldsymbol{y}-\boldsymbol{\hat{y}}) \;*\; \boldsymbol{\hat{y}}\;*\;(\boldsymbol{1}-\boldsymbol{\hat{y}}) \\ \boldsymbol{e}&=\boldsymbol{W}^{\mathrm T}\boldsymbol{g}\;*\;\boldsymbol{b}\;*\;(\boldsymbol{1}-\boldsymbol{b})\\ \end{aligned}
  54. ge​=(y−y^​)∗y^​∗(1−y^​)=WTg∗b∗(1−b)​

2.2 算法实现

2.2.1 初始化

首先我们需要创建一个神经网络类:

  1. import numpy as np
  2. classNeuralNetwork:def__init__(self):pass

那我们应该初始化哪些参数呢?输入层结点数

  1. m
  2. m
  3. m,隐层结点数
  4. h
  5. h
  6. h 和输出层结点数
  7. n
  8. n
  9. n 都是必须初始化的,它们决定了神经网络的结构。此外,根据算法伪码,我们还应该初始化
  10. η
  11. ,
  12. W
  13. ,
  14. V
  15. ,
  16. θ
  17. ,
  18. γ
  19. \eta, \boldsymbol{W},\boldsymbol{V},\boldsymbol{\theta},\boldsymbol{\gamma}
  20. η,W,V,θ,γ。

注意到

  1. η
  2. ,
  3. m
  4. ,
  5. n
  6. ,
  7. h
  8. \eta,m,n,h
  9. η,m,n,h 是必须人工输入的,而权重矩阵和阈值向量则由后面三个参数决定。

当然,容忍度

  1. tol

和 最大迭代次数

  1. max_iter

也需要人工输入,这两个参数决定了我们的神经网络何时停止训练。

  1. def__init__(
  2. self,
  3. learningrate,
  4. inputnodes,
  5. hiddennodes,
  6. outputnodes,
  7. tol,
  8. max_iter
  9. ):# 学习率
  10. self.lr = learningrate
  11. # 输入层结点数
  12. self.ins = inputnodes
  13. # 隐层结点数
  14. self.hns = hiddennodes
  15. # 输出层结点数
  16. self.ons = outputnodes
  17. # 容忍度
  18. self.tol = tol
  19. # 最大迭代次数
  20. self.max_iter = max_iter

权重矩阵和阈值向量在

  1. (
  2. 0
  3. ,
  4. 1
  5. )
  6. (0,1)
  7. (0,1) 范围内初始化:
  1. # 权重矩阵和阈值向量
  2. self.V = np.random.rand(self.hns, self.ins)
  3. self.W = np.random.rand(self.ons, self.hns)
  4. self.gamma = np.random.rand(self.hns)
  5. self.theta = np.random.rand(self.ons)

当然别忘了还有激活函数,我们采用匿名函数的形式:

  1. # Sigmoid
  2. self.sigmoid =lambda x:1/(1+ np.power(np.e,-x))

到此为止,我们的

  1. __init__

函数算是完成了:

  1. def__init__(
  2. self,
  3. learningrate,
  4. inputnodes,
  5. hiddennodes,
  6. outputnodes,
  7. tol,
  8. max_iter
  9. ):
  10. self.lr = learningrate
  11. self.ins, self.hns, self.ons = inputnodes, hiddennodes, outputnodes
  12. self.tol = tol
  13. self.max_iter = max_iter
  14. self.V = np.random.rand(self.hns, self.ins)
  15. self.W = np.random.rand(self.ons, self.hns)
  16. self.gamma = np.random.rand(self.hns)
  17. self.theta = np.random.rand(self.ons)
  18. self.sigmoid =lambda x:1/(1+ np.power(np.e,-x))

2.2.2 正向传播

我们需要定义一个正向传播函数用来计算

  1. α
  2. ,
  3. b
  4. ,
  5. β
  6. ,
  7. y
  8. ^
  9. \boldsymbol{\alpha},\boldsymbol{b},\boldsymbol{\beta},\boldsymbol{\hat{y}}
  10. α,b,β,y^​,该函数需要一个样本
  11. (
  12. x
  13. ,
  14. y
  15. )
  16. (\boldsymbol{x},\boldsymbol{y})
  17. (x,y) 作为输入,我们用
  1. (inputs, targets)

来表示,输出

  1. y
  2. ^
  3. \boldsymbol{\hat{y}}
  4. y^​
  1. outputs

来表示。

当然,我们还需要计算误差

  1. E
  2. E
  3. E,用
  1. error

来表示。

  1. defpropagate(self, inputs, targets):# 计算输入和输出
  2. alpha = np.dot(self.V, inputs)
  3. b = self.sigmoid(alpha - self.gamma)
  4. beta = np.dot(self.W, b)
  5. outputs = self.sigmoid(beta - self.theta)# 计算误差
  6. error = np.linalg.norm(targets - outputs,ord=2)**2/2return alpha, b, beta, outputs, error

2.2.3 反向传播

反向传播需要先计算两个梯度项

  1. g
  2. ,
  3. e
  4. \boldsymbol{g},\boldsymbol{e}
  5. g,e,然后再进行参数更新:
  6. W
  7. :
  8. =
  9. W
  10. +
  11. η
  12. g
  13. b
  14. T
  15. ,
  16. θ
  17. :
  18. =
  19. θ
  20. +
  21. η
  22. g
  23. V
  24. :
  25. =
  26. V
  27. +
  28. η
  29. e
  30. x
  31. T
  32. ,
  33. γ
  34. :
  35. =
  36. γ
  37. +
  38. η
  39. e
  40. \boldsymbol{W}:=\boldsymbol{W}+\eta \boldsymbol{g}\boldsymbol{b}^{\mathrm{T}},\quad \boldsymbol{\theta}:= \boldsymbol{\theta}+ -\eta \boldsymbol{g}\\ \boldsymbol{V}:=\boldsymbol{V}+\eta \boldsymbol{e}\boldsymbol{x}^{\mathrm{T}},\quad \boldsymbol{\gamma}:= \boldsymbol{\gamma}+ -\eta\boldsymbol{e} \\
  41. W:=WgbT,θ:=θ+−ηgV:=VexT,γ:=γ+−ηe

可以看出我们的函数需要用到这些参数:

  1. x
  2. ,
  3. y
  4. ,
  5. α
  6. ,
  7. b
  8. ,
  9. β
  10. ,
  11. y
  12. ^
  13. \boldsymbol{x},\boldsymbol{y},\boldsymbol{\alpha},\boldsymbol{b},\boldsymbol{\beta},\boldsymbol{\hat{y}}
  14. x,y,α,b,β,y^​。
  1. defback_propagate(self, inputs, targets, alpha, b, beta, outputs):# 计算两个梯度项
  2. g =(targets - outputs)* outputs *(np.ones(len(outputs))- outputs)
  3. e = np.dot(self.W.T, g)* b *(np.ones(len(b))- b)# 更新参数
  4. self.W += self.lr * np.outer(g, b)
  5. self.theta +=-self.lr * g
  6. self.V += self.lr * np.outer(e, inputs)
  7. self.gamma +=-self.lr * e

2.2.3 训练

训练需要传入数据集,假设数据集的表示形式为

  1. X
  2. ,
  3. y
  4. X,y
  5. X,y(不知道该记号的读者可参考我的这一篇文章)。

我们需要对传入的数据集做一些处理。在遍历数据集时,

  1. X[i]

是向量,即

  1. inputs

  1. y[i]

是向量对应的标签,它仅仅是一个数,而非像

  1. targets

这样的向量。

那么如何将

  1. y[i]

处理成

  1. targets

呢?

考虑像手写数字识别这样的十分类任务,对应的神经网络的输出层有十个神经元,每个神经元对应着一个数字。例如,当我们输入一张

  1. 5
  2. 5
  3. 5 的图片时,
  4. 5
  5. 5
  6. 5 对应的神经元的输出值应该是最高的,其他神经元的输出值应该是最低的。

因为激活函数是Sigmoid函数,它的输出区间为

  1. (
  2. 0
  3. ,
  4. 1
  5. )
  6. (0,1)
  7. (0,1)。我们将输出层神经元按照其对应的数字从小到大进行排列,从而输出层的情况应当**十分接近**下面这个样子:
  8. [
  9. 0
  10. ,
  11. 0
  12. ,
  13. 0
  14. ,
  15. 0
  16. ,
  17. 0
  18. ,
  19. 1
  20. ,
  21. 0
  22. ,
  23. 0
  24. ,
  25. 0
  26. ,
  27. 0
  28. ]
  29. [0,0,0,0,0,1,0,0,0,0]
  30. [0,0,0,0,0,1,0,0,0,0]
  1. y

中包含了所有向量的标签,若要判断我们面临的问题是一个几分类问题,我们需要对

  1. y

进行去重,再将结果从小到大进行排序:

  1. self.classes = np.unique(y)

例如,

  1. y = [2, 0, 0, 1, 0, 1, 0, 2, 2]

,则

  1. self.classes = [0, 1, 2]

。即

  1. self.classes

按序存储了所有的标签种类

获得

  1. targets

的步骤如下:

首先创建全为

  1. 0
  2. 0
  3. 0 的数组,即
  1. targets = np.zeros(len(self.classes))

然后我们要获取

  1. inputs

的标签在

  1. self.classes

中的索引,即

  1. index =list(self.classes).index(y[i])

然后再赋值

  1. targets[index]=1

上述过程可以统一为两步:

  1. targets = np.zeros(len(self.classes))
  2. targets[list(self.classes).index(y[i])]=1

我们前面提到,训练停止当且仅当下面两个条件满足其中一个:

  • 迭代收敛,即 E < ϵ E<\epsilon E<ϵ;
  • 迭代次数达到最大值,即训练了 max_iter 次。

如果第一个条件先达到,则我们立刻停止训练;如果第二个条件先达到,说明我们训练了

  1. max_iter

次也没有收敛,此时应当抛出一个错误。

  1. deftrain(self, X, y):# 初始时未收敛
  2. convergence =False
  3. self.classes = np.unique(y)# 开始迭代 max_iter for _ inrange(self.max_iter):# 遍历数据集for idx inrange(len(X)):
  4. inputs, targets = X[idx], np.zeros(len(self.classes))
  5. targets[list(self.classes).index(y[idx])]=1# 正向计算
  6. alpha, b, beta, outputs, error = self.propagate(inputs, targets)# 若误差不超过容忍度,则判定收敛if error <= self.tol:
  7. convergence =Truebreakelse:# 反向传播
  8. self.back_propagate(inputs, targets, alpha, b, beta, outputs)if convergence:breakifnot convergence:raise RuntimeError('神经网络的训练未收敛,请调大max_iter的值')

2.2.4 预测

训练好的神经网络理应能对单个样本完成分类,我们选择

  1. outputs

输出最高的神经元对应的类别标签作为我们对样本的预测标签:

  1. defpredict(self, sample):
  2. alpha = np.dot(self.V, sample)
  3. b = self.sigmoid(alpha - self.gamma)
  4. beta = np.dot(self.W, b)
  5. outputs = self.sigmoid(beta - self.theta)# 计算输出最高的神经元在outputs中的索引
  6. idx =list(outputs).index(max(outputs))
  7. label = self.classes[idx]return label

2.2.5 完善网络

到此为止,我们的神经网络就已经完成

  1. 99
  2. %
  3. 99\%
  4. 99% 了,但还有一些细节要处理。
  • 我们希望神经网络能够根据数据集自动调整输入层结点数和输出层结点数。
  • 一些参数可以预先设置好,例如学习率,容忍度等。
  • 我们需要进行一些数据预处理,即将 X X X 归一化。

对于前两个,我们需要修改

  1. __init__()

,如下:

  1. def__init__(self, X, y, hiddennodes, learningrate=0.01, tol=1e-3, max_iter=1000):
  2. self.X, self.y = X, y
  3. self.classes = np.unique(self.y)
  4. self.ins, self.hns, self.ons =len(X[0]), hiddennodes,len(self.classes)
  5. self.lr = learningrate
  6. self.tol = tol
  7. self.max_iter = max_iter
  8. self.V = np.random.rand(self.hns, self.ins)
  9. self.W = np.random.rand(self.ons, self.hns)
  10. self.gamma = np.random.rand(self.hns)
  11. self.theta = np.random.rand(self.ons)
  12. self.sigmoid =lambda x:1/(1+ np.power(np.e,-x))

同时还需要修改一下

  1. train()

  1. deftrain(self):
  2. convergence =Falsefor _ inrange(self.max_iter):for idx inrange(len(self.X)):
  3. inputs, targets = self.X[idx], np.zeros(self.ons)
  4. targets[list(self.classes).index(self.y[idx])]=1
  5. alpha, b, beta, outputs, error = self.propagate(inputs, targets)if error <= self.tol:
  6. convergence =Truebreakelse:
  7. self.back_propagate(inputs, targets, alpha, b, beta, outputs)if convergence:breakifnot convergence:raise RuntimeError('神经网络的训练未收敛,请调大max_iter的值')

对于第三个,我们希望将

  1. X
  2. X
  3. X 归一化,但又不希望
  4. X
  5. X
  6. X 中有太多的
  7. 0
  8. 0
  9. 0,否则会造成权重更新失败,因此需要作变换:
  10. X
  11. :
  12. =
  13. (
  14. X
  15. min
  16. (
  17. X
  18. )
  19. max
  20. (
  21. X
  22. )
  23. min
  24. (
  25. X
  26. )
  27. )
  28. 0.99
  29. +
  30. 0.01
  31. X:=\left(\frac{X-\min(X)}{\max(X)-\min(X)}\right)\cdot 0.99 +0.01
  32. X:=(max(X)−min(X)Xmin(X)​)⋅0.99+0.01

该变换能将

  1. X
  2. X
  3. X 中的元素映射到
  4. [
  5. 0.01
  6. ,
  7. 1
  8. ]
  9. [0.01,1]
  10. [0.01,1] 中。

该步骤需要在数据集传入到神经网络实例之前完成。


完整的单隐层神经网络代码如下:

  1. import numpy as np
  2. classNeuralNetwork:def__init__(self, X, y, hiddennodes, learningrate=0.01, tol=1e-3, max_iter=1000):
  3. self.X, self.y = X, y
  4. self.classes = np.unique(self.y)
  5. self.ins, self.hns, self.ons =len(X[0]), hiddennodes,len(self.classes)
  6. self.lr = learningrate
  7. self.tol = tol
  8. self.max_iter = max_iter
  9. self.V = np.random.rand(self.hns, self.ins)
  10. self.W = np.random.rand(self.ons, self.hns)
  11. self.gamma = np.random.rand(self.hns)
  12. self.theta = np.random.rand(self.ons)
  13. self.sigmoid =lambda x:1/(1+ np.power(np.e,-x))defpropagate(self, inputs, targets):
  14. alpha = np.dot(self.V, inputs)
  15. b = self.sigmoid(alpha - self.gamma)
  16. beta = np.dot(self.W, b)
  17. outputs = self.sigmoid(beta - self.theta)
  18. error = np.linalg.norm(targets - outputs,ord=2)**2/2return alpha, b, beta, outputs, error
  19. defback_propagate(self, inputs, targets, alpha, b, beta, outputs):
  20. g =(targets - outputs)* outputs *(np.ones(len(outputs))- outputs)
  21. e = np.dot(self.W.T, g)* b *(np.ones(len(b))- b)
  22. self.W += self.lr * np.outer(g, b)
  23. self.theta +=-self.lr * g
  24. self.V += self.lr * np.outer(e, inputs)
  25. self.gamma +=-self.lr * e
  26. deftrain(self):
  27. convergence =Falsefor _ inrange(self.max_iter):for idx inrange(len(self.X)):
  28. inputs, targets = self.X[idx], np.zeros(self.ons)
  29. targets[list(self.classes).index(self.y[idx])]=1
  30. alpha, b, beta, outputs, error = self.propagate(inputs, targets)if error <= self.tol:
  31. convergence =Truebreakelse:
  32. self.back_propagate(inputs, targets, alpha, b, beta, outputs)if convergence:breakifnot convergence:raise RuntimeError('神经网络的训练未收敛,请调大max_iter的值')defpredict(self, sample):
  33. alpha = np.dot(self.V, sample)
  34. b = self.sigmoid(alpha - self.gamma)
  35. beta = np.dot(self.W, b)
  36. outputs = self.sigmoid(beta - self.theta)return self.classes[list(outputs).index(max(outputs))]

我们将其保存到

  1. nn.py

中。

三、实战演练

本章节中,我们使用

  1. sklearn

中的鸢尾花数据集来训练并测试神经网络。

另起一个新的

  1. .py

文件,首先需要导入:

  1. from nn import NeuralNetwork # 导入我们的神经网络from sklearn.model_selection import train_test_split # 划分训练集和测试集from sklearn.metrics import accuracy_score # 计算准确率from sklearn.datasets import load_iris # 鸢尾花数据集import numpy as np

先做数据预处理:

  1. X, y = load_iris(return_X_y=True)
  2. X =((X - X.min())/(X.max()- X.min()))*0.99+0.01
  3. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

创建一个神经网络实例,将隐藏层结点数设为 10,然后进行训练:

  1. bpnn = NeuralNetwork(X_train, y_train,10, max_iter=3000)# max_iter过小会导致不收敛
  2. bpnn.train()

定义一个测试函数用来测试神经网络在测试集上的分类准确率:

  1. deftest(bpnn, X_test, y_test):
  2. y_pred =[bpnn.predict(X_test[i])for i inrange(len(X_test))]return accuracy_score(y_test, y_pred)print(test(bpnn, X_test, y_test))# 1.0

可见训练完成的神经网络在测试集上的分类准确率达

  1. 100
  2. %
  3. 100\%
  4. 100%。

完整的训练/测试代码如下:

  1. from nn import NeuralNetwork
  2. from sklearn.model_selection import train_test_split
  3. from sklearn.metrics import accuracy_score
  4. from sklearn.datasets import load_iris
  5. import numpy as np
  6. deftest(bpnn, X_test, y_test):
  7. y_pred =[bpnn.predict(X_test[i])for i inrange(len(X_test))]return accuracy_score(y_test, y_pred)
  8. X, y = load_iris(return_X_y=True)
  9. X =((X - X.min())/(X.max()- X.min()))*0.99+0.01
  10. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
  11. bpnn = NeuralNetwork(X_train, y_train,10, max_iter=3000)
  12. bpnn.train()print(test(bpnn, X_test, y_test))

本文转载自: https://blog.csdn.net/weixin_44022472/article/details/123315557
版权归原作者 serity 所有, 如有侵权,请联系我们删除。

“手把手教你用numpy搭建一个单隐层神经网络”的评论:

还没有评论