0


神经网络与深度学习

神经网络与深度学习

马上期末考试了,就用这篇博客充当一下复习记录吧。一些部分可能有误,还请各位大佬批评指正。

第 1 章 绪论

  • 理解神经网络、深度学习与人工智能的之间的关系;
  • 掌握机器学习与深度学习的步骤;

有关神经网络、深度学习与人工智能的关系
在这里插入图片描述
链接: 图片博客来源
理解:深度学习是人工智能的一个子集合,而神经网络和深度学习又有交集。
那么,为什么神经网络和深度学习不是相互包含的关系呢?
神经网络中除了深度学习还有什么?
深度学习中除了神经网络还有什么?
问题:深度学习中除了神经网络还有什么?
深度学习可以采用神经网络模型,也可以采用其他模型(比如深度信念网络是一种概率图模型). 但是,由于神经网络模型可以比较容易地解决贡献度分配问题,因此神经网络模型成为深度学习中主要采用的模型参考
又或者周志华老师的深度森林,其实也是深度学习但却不是神经网络。

问题:神经网络中除了深度学习还有什么?
个人理解,深度学习是一些比较深的模型。而一些比较简单的神经网络(如单层感知机或者2层神经网络等)这些比较“浅”的模型虽然是神经网络但却不是深度学习。

因此神经网络与深度学习并不是相互包含的关系,深度学习与神经网络彼此有交集却并不等价也不存在包含关系。

问题:机器学习的步骤
首先,什么是机器学习?
机器学习(Machine Learning,ML)是指从有限的观测数据中学习(或“猜测”)出具有一般性的规律,并利用这些规律对未知数据进行预测的方法。
那么机器学习的步骤可以表示如下:
在这里插入图片描述
数据预处理:进行如缺失值处理、数据格式统一、数据归一化等操作。

特征提取:根据某些方法提取出有用的特征,提取出有用的特征,去除多余的或者起到干扰作用的特征,又或者在图像分类中提取边缘、在文本分类中去除停用词等。

特征转换:对提取出来的特征进行转换,如降维(PCA或LDA等方法)或升维。使得数据具有更好的表现力。

预测:选定一个合适的模型,学习一个函数(利用优化方法将损失函数降到最小)并在测试集上进行预测。

问题:深度学习的步骤
在这里插入图片描述
通过多层的特征转换,把原始数据变成更高层次、更抽象的表示.这些学习到的表示可以替代人工设计的特征,从而避免“特征工程”。数据预处理去哪了?

第 2 章 机器学习概述

  • 掌握什么是机器学习;常见的机器学习类型;
  • 掌握机器学习四要素;
  • 理解机器学习的几个关键点。

问题:什么是机器学习
根据维基百科对机器学习的解释:
机器学习(Machine Learning,ML)是指从有限的观测数据中学习(或“猜测”)出具有一般性的规律,并利用这些规律对未知数据进行预测的方法.

问题:常见的机器学习类型
常见的机器学习有有监督学习、无监督学习、半监督学习、强化学习等。

有监督学习:对每一个样本都有“标准答案”,机器学习根据“标准答案”利用损失函数计算损失,通过对损失函数的最小化达到模型学习的目的。如分类、回归等问题。

无监督学习:每一个样本都没有“标准答案”,利用这些数据解决模式识别中的问题(如类别划分)。常见的无监督学习有PCA、聚类、核密度估计等。

半监督学习:部分样本有“标准答案”部分样本没有。利用这些数据训练一个模型来解决问题(分类、回归等)。

问题:机器学习四要素

  • 数据
  • 模型:实现任务的数学模型,如决策树、支持向量机,k-means等模型。
  • 学习准则:衡量模型的好坏,也是模型的学习目标,如在有监督学习中学习准则即为损失函数,如分类中的交叉熵损失或者回归问题中的MSE损失。
  • 优化算法:能够是学习准则的到目标的方法,如梯度下降法等方法。 以上四点为机器学习的四要素。

理解机器学习的几个关键点
待定

第 3 章 线性模型

  • 掌握交叉熵损失
  • 掌握MSE 损失

交叉熵和MSE损失的异同:
异:交叉熵是用于分类问题的,而MSE是用于回归问题的。
同:二者都是损失函数,都通过使损失函数最小从而找到最优模型的参数。

交叉熵损失
推导待定
公式:
二分类
在二分类的情况下,模型最后需要预测的结果只有两种情况,对于每个类别我们的预测得到的概率为

  1. p
  2. p
  3. p
  4. 1
  5. p
  6. 1-p
  7. 1p ,此时表达式为(
  8. log
  9. \log
  10. log
  11. e
  12. e
  13. e为底) :
  14. L
  15. =
  16. 1
  17. N
  18. i
  19. L
  20. i
  21. =
  22. 1
  23. N
  24. i
  25. [
  26. y
  27. i
  28. log
  29. (
  30. p
  31. i
  32. )
  33. +
  34. (
  35. 1
  36. y
  37. i
  38. )
  39. log
  40. (
  41. 1
  42. p
  43. i
  44. )
  45. ]
  46. L=\frac{1}{N} \sum_{i} L_{i}=\frac{1}{N} \sum_{i}-\left[y_{i} \cdot \log \left(p_{i}\right)+\left(1-y_{i}\right) \cdot \log \left(1-p_{i}\right)\right]
  47. L=N1i∑​Li​=N1i∑​−[yi​⋅log(pi​)+(1yi​)⋅log(1pi​)]

其中:

  1. y
  2. i
  3. -y_{i}-
  4. yi​− 表示样本
  5. i
  6. i
  7. i label,正类为 1 ,负类为 0
  8. p
  9. i
  10. -p_{i}-
  11. pi​− 表示样本
  12. i
  13. i
  14. i 预测为正类的概率

如何直观理解:
损失函数的作用是什么?
是衡量模型表现好坏的指标,也是模型学习的目标,因此当模型表现较为好时,此时应该有较小的

  1. L
  2. o
  3. s
  4. s
  5. Loss
  6. Loss。在上述公式中。
  7. L
  8. i
  9. L_i
  10. Li​为单个样本的损失,根据上述公式
  11. L
  12. i
  13. =
  14. [
  15. y
  16. i
  17. log
  18. (
  19. p
  20. i
  21. )
  22. +
  23. (
  24. 1
  25. y
  26. i
  27. )
  28. log
  29. (
  30. 1
  31. p
  32. i
  33. )
  34. ]
  35. L_i = -\left[y_{i} \cdot \log \left(p_{i}\right)+\left(1-y_{i}\right) \cdot \log \left(1-p_{i}\right)\right]
  36. Li​=−[yi​⋅log(pi​)+(1yi​)⋅log(1pi​)]

那么,当样本的真实值为1也就是

  1. y
  2. i
  3. =
  4. 1
  5. y_i = 1
  6. yi​=1时,此时
  7. L
  8. i
  9. =
  10. [
  11. y
  12. i
  13. log
  14. (
  15. p
  16. i
  17. )
  18. ]
  19. =
  20. log
  21. (
  22. p
  23. i
  24. )
  25. L_i = -\left[y_{i} \cdot \log \left(p_{i}\right)\right] = -\log \left(p_{i}\right)
  26. Li​=−[yi​⋅log(pi​)]=−log(pi​)那么根据
  27. l
  28. o
  29. g
  30. log
  31. log函数,
  32. p
  33. i
  34. p_i
  35. pi​越接近于1,也就是模型认为该样本为正类的概率越大(正确的)此时
  36. L
  37. i
  38. L_i
  39. Li​越小;而若
  40. p
  41. i
  42. p_i
  43. pi​越接近于0,也就是模型认为该样本为负类的概率越大(错误的),此时
  44. L
  45. i
  46. L_i
  47. Li​越大。

当样本的真实值为0也就是

  1. y
  2. i
  3. =
  4. 0
  5. y_i = 0
  6. yi​=0时,此时
  7. L
  8. i
  9. =
  10. [
  11. (
  12. 1
  13. y
  14. i
  15. )
  16. log
  17. (
  18. 1
  19. p
  20. i
  21. )
  22. ]
  23. =
  24. log
  25. (
  26. 1
  27. p
  28. i
  29. )
  30. L_i = -\left[(1-y_{i}) \cdot \log \left(1-p_{i}\right)\right] = -\log \left(1-p_{i}\right)
  31. Li​=−[(1yi​)⋅log(1pi​)]=−log(1pi​)那么根据
  32. l
  33. o
  34. g
  35. log
  36. log函数,
  37. p
  38. i
  39. p_i
  40. pi​越接近于1,也就是模型认为该样本为正类的概率越大(错误的)此时
  41. L
  42. i
  43. L_i
  44. Li​越大;而若
  45. p
  46. i
  47. p_i
  48. pi​越接近于0,也就是模型认为该样本为负类的概率越大(正确的),此时
  49. L
  50. i
  51. L_i
  52. Li​越小。

多分类同理
多分类的情况实际上就是对二分类的扩展:

  1. L
  2. =
  3. 1
  4. N
  5. i
  6. L
  7. i
  8. =
  9. 1
  10. N
  11. i
  12. c
  13. =
  14. 1
  15. M
  16. y
  17. i
  18. c
  19. log
  20. (
  21. p
  22. i
  23. c
  24. )
  25. L=\frac{1}{N} \sum_{i} L_{i}=-\frac{1}{N} \sum_{i} \sum_{c=1}^{M} y_{i c} \log \left(p_{i c}\right)
  26. L=N1i∑​Li​=−N1i∑​c=1Myiclog(pic​)

其中:

    1. M M M —类别的数量 y i c -y_{i c}- yic​− 一符号函数( 0 1 ),如果样本 i i i 的真实类别等于 c c c 1 ,否则取 0 p i c -p_{i c} pic 一观测样本 i i i 属于类别 c c c 的预测概率

参考:分类模型的 Loss 为什么使用 cross entropy 而不是 classification error 或 squared error

MSE损失
计算预测值和真实值之间的欧式距离。预测值和真实值越接近,两者的均方差就越小
均方差函数常用于线性回归(linear regression),即函数拟合(function fitting)。

  1. J
  2. (
  3. w
  4. ,
  5. b
  6. )
  7. =
  8. 1
  9. 2
  10. m
  11. i
  12. =
  13. 1
  14. m
  15. (
  16. a
  17. i
  18. y
  19. i
  20. )
  21. 2
  22. J(w, b)=\frac{1}{2 m} \sum_{i=1}^{m}\left(a_{i}-y_{i}\right)^{2}
  23. J(w,b)=2m1i=1m​(ai​−yi​)2很好理解,使用(
  24. a
  25. i
  26. y
  27. i
  28. a_i - y_i
  29. ai​−yi​)即可衡量第
  30. i
  31. i
  32. i个点真实值与预测值之间的差距。

那么为什么要有平方呢?
这是因为(

  1. a
  2. i
  3. y
  4. i
  5. a_i - y_i
  6. ai​−yi​)可能会出现负值,而加绝对值又不太好处理,因此用平方来表示。

那么为什么要求和之后除以

  1. m
  2. m
  3. m呢?

m为点的个数,除以m相当于取平均,可以反映整体的拟合状况。
那么为什么除以m之后还要除以2呢?
其实除不除都可以,只不过损失函数在误差反向传播或者优化时要进行求导。那么平方项求导之后前方就会有系数2,刚好与分母上的2相消。

第 4 章 前馈神经网络

  • 掌握神经网络特征
  • 激活函数(常用激活函数:S 型激活函数、斜坡型激活函数、复合激活函数);
  • 掌握前馈神经网络结构
  • 掌握前向传播及反向传播算法

神经网络的主要特征:

  1. 信息表示是分布式的(非局部的);
  2. 记忆和知识是存储在单元之间的连接上;
  3. 通过逐渐改变单元之间的连接强度来学习新的知识。

激活函数
激活函数的几个特征

  • 连续并可导(允许少数点上不可导)的非线性函数。
  • 激活函数及其导函数要尽可能的简单
  • 激活函数的导函数的值域要在一个合适的区间内

常用激活函数:S 型激活函数、斜坡型激活函数、复合激活函数

S 型激活函数
S 型激活函数是指Sigmoid型函数,常用的 Sigmoid型函数有Logistic函数和Tanh函数。

  1. L
  2. o
  3. g
  4. i
  5. s
  6. t
  7. i
  8. c
  9. σ
  10. (
  11. x
  12. )
  13. =
  14. 1
  15. 1
  16. +
  17. e
  18. x
  19. Logistic \sigma(x) = \frac{1}{1+e^{-x}}
  20. Logistic:σ(x)=1+ex1

优点:

  • Logistic函数的输出在(0,1)之间,输出范围有限,优化稳定,可以用作输出层。
  • 连续函数,便于求导。

缺点:

  • sigmoid函数在变量取绝对值非常大的正值或负值时会出现饱和现象,意味着函数会变得很平,并且对输入的微小改变会变得不敏感。

  • 在反向传播时,当梯度接近于0,权重基本不会更新,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。

  • sigmoid函数的输出不是0均值的,会导致后层的神经元的输入是非0均值的信号,这会对梯度产生影响。

  • 计算复杂度高,因为sigmoid函数是指数形式。

    1. t
    2. a
    3. n
    4. h
    5. (
    6. x
    7. )
    8. =
    9. e
    10. x
    11. e
    12. x
    13. e
    14. x
    15. +
    16. e
    17. x
    18. =
    19. 2
    20. σ
    21. (
    22. 2
    23. x
    24. )
    25. 1
    26. tanh(x) = \frac{e^{x} - e^{-x}}{e^{x}+e^{x}} = 2\sigma(2x) - 1

    tanh(x)=ex+exex−e−x​=2σ(2x)−1

Tanh函数是 0 均值的,因此实际应用中 Tanh 会比 sigmoid 更好。但是仍然存在梯度饱和与exp计算的问题
在这里插入图片描述
斜坡型激活函数
斜坡型激活函数主要是

  1. R
  2. E
  3. L
  4. U
  5. RELU
  6. RELU函数以及一系列
  7. R
  8. E
  9. L
  10. U
  11. RELU
  12. RELU函数的改进。

RELU函数

  1. ReLU
  2. (
  3. x
  4. )
  5. =
  6. {
  7. x
  8. x
  9. 0
  10. 0
  11. x
  12. <
  13. 0
  14. =
  15. max
  16. (
  17. 0
  18. ,
  19. x
  20. )
  21. \begin{aligned} \operatorname{ReLU}(x) &= \begin{cases}x & x \geq 0 \\ 0 & x<0\end{cases} =\max (0, x) \end{aligned}
  22. ReLU(x)​={x0x0x<0​=max(0,x)​

优点:

  • 计算简单,计算速度快。
  • 在一定程度上缓解了神经网络的梯度消失问题,加速梯度下降的收敛速度。
  • 不会像S型激活函数那样出现饱和现象。

缺点:

  • 输出不是0均值的,会导致后层的神经元的输入是非0均值的信号,这会对梯度产生影响。
  • 由于RELU函数在小于0的部分导数始终为0,因此如果参数在一次不恰当的更新后,第一个隐藏层中的某个ReLU 神经元在所有的训练数据上都不能被激活,那么这个神经元自身参数的梯度永远都会是0,在以后的训练过程中永远不能被激活。也就是死亡RELU现象。

Leaky RELU
为了解决

  1. R
  2. E
  3. L
  4. U
  5. RELU
  6. RELU函数中的死亡现象,
  7. L
  8. e
  9. a
  10. k
  11. y
  12. R
  13. E
  14. L
  15. U
  16. Leaky RELU
  17. LeakyRELU做出了适当改进:不再让小于0的部分恒等于0
  18. LeakyReLU
  19. (
  20. x
  21. )
  22. =
  23. {
  24. x
  25. if
  26. x
  27. >
  28. 0
  29. γ
  30. x
  31. if
  32. x
  33. 0
  34. =
  35. max
  36. (
  37. 0
  38. ,
  39. x
  40. )
  41. +
  42. γ
  43. min
  44. (
  45. 0
  46. ,
  47. x
  48. )
  49. \begin{aligned} \operatorname{LeakyReLU}(x) &= \begin{cases}x & \text { if } x>0 \\ \gamma x & \text { if } x \leq 0\end{cases} =\max (0, x)+\gamma \min (0, x) \end{aligned}
  50. LeakyReLU(x)​={xγx if x>0 if x0​=max(0,x)+γmin(0,x)​其中
  51. γ
  52. \gamma
  53. γ是一个很小的常数。而
  54. γ
  55. \gamma
  56. γ也可以作为一个参数来学习。Parametric ReLUPReLU,这样不同的神经元就可以有不同的激活函数,相对更加灵活。

但即使这样仍然有一个问题没有解决,输出并不是0中心化的。因此为了解决这一问题,又提出了

  1. E
  2. L
  3. U
  4. ELU
  5. ELU

ELU

  1. ELU
  2. (
  3. x
  4. )
  5. =
  6. {
  7. x
  8. if
  9. x
  10. >
  11. 0
  12. γ
  13. (
  14. exp
  15. (
  16. x
  17. )
  18. 1
  19. )
  20. if
  21. x
  22. 0
  23. =
  24. max
  25. (
  26. 0
  27. ,
  28. x
  29. )
  30. +
  31. min
  32. (
  33. 0
  34. ,
  35. γ
  36. (
  37. exp
  38. (
  39. x
  40. )
  41. 1
  42. )
  43. )
  44. \begin{aligned} \operatorname{ELU}(x) &= \begin{cases}x & \text { if } x>0 \\ \gamma(\exp (x)-1) & \text { if } x \leq 0\end{cases} =\max (0, x)+\min (0, \gamma(\exp (x)-1)) \end{aligned}
  45. ELU(x)​={xγ(exp(x)−1)​ if x>0 if x0​=max(0,x)+min(0,γ(exp(x)−1))​

其中

  1. γ
  2. 0
  3. \gamma \geq 0
  4. γ≥0 是一个超参数, 决定
  5. x
  6. 0
  7. x \leq 0
  8. x0 时的饱和曲线,并调整输出均值在 0附近。虽然ELU解决了死亡RELU的问题,也解决了输出的0中心化问题,但是由于引入了e,提高了计算的复杂度,因此运行起来相对会慢一些。

在这里插入图片描述
复合激活函数
Swish函数
Swish 函数是一种自门控 ( Self-Gated ) 激活 函数, 定义为

  1. swish
  2. (
  3. x
  4. )
  5. =
  6. x
  7. σ
  8. (
  9. β
  10. x
  11. )
  12. ,
  13. \operatorname{swish}(x)=x \sigma(\beta x),
  14. swish(x)=xσ(βx),

其中

  1. σ
  2. (
  3. )
  4. \sigma(\cdot)
  5. σ(⋅) Logistic 函数,
  6. β
  7. \beta
  8. β 为可学习的参数或一个固定超参数.
  9. σ
  10. (
  11. )
  12. (
  13. 0
  14. ,
  15. 1
  16. )
  17. \sigma(\cdot) \in(0,1)
  18. σ(⋅)∈(0,1) 以看作一种软性的门控机制.
  19. σ
  20. (
  21. β
  22. x
  23. )
  24. \sigma(\beta x)
  25. σ(βx) 接近于 1 时, 门处于 “开” 状态, 激活函数的 输出近似于
  26. x
  27. x
  28. x 本身;
  29. σ
  30. (
  31. β
  32. x
  33. )
  34. \sigma(\beta x)
  35. σ(βx) 接近于 0 时, 门的状态为 “关”, 激活函数的输出近似 0 .

GELU(Gaussian Error Linear Unit,高斯误差线性单元)也是一种通过门控机制来调整其输出值的激活函数,和 Swish 函数比较
类似.

  1. G
  2. E
  3. L
  4. U
  5. (
  6. 𝑥
  7. )
  8. =
  9. 𝑥
  10. 𝑃
  11. (
  12. 𝑋
  13. 𝑥
  14. )
  15. GELU(𝑥) = 𝑥𝑃(𝑋 𝑥)
  16. GELU(x)=xP(Xx)

其中𝑃(𝑋 ≤ 𝑥)是高斯分布𝒩(𝜇, 𝜎2)的累积分布函数,其中𝜇, 𝜎为超参数,一般设𝜇 = 0, 𝜎 = 1即可.由于高斯分布的累积分布函数为S型函数,因此GELU函数可以用Tanh函数或Logistic函数来近似.

前馈神经网络结构

  • 各神经元分别属于不同的层,层内无连接。
  • 相邻两层之间的神经元全部两两连接。
  • 整个网络中无反馈,信号从输入层向输出层单向传播,可用一个有向无环图表示。

前向传播及反向传播算法
可以看这位大佬的博文,讲的很清楚。
神经网络BP反向传播算法原理和详细推导流程

第 5 章 卷积神经网络

  • 理解什么是卷积神经网络,其三个结构特征;
  • 掌握卷积过程和不同类型的卷积(窄卷积、宽卷积和等宽卷积);
  • 掌握卷积神经网络中卷积核、卷积层、卷积网络结构;
  • 了解各种不同类型的卷积(空洞卷积等);
  • 理解残差网络机理

卷积神经网络以及其三个结构特征

卷积神经网络(Convolutional Neural Network,CNN或ConvNet)是一种
具有局部连接、权重共享等特性的深层前馈神经网络.

特征:

  • 局部连接:在卷积层(假设是第𝑙 层)中的每一个神经元都只和前一层(第𝑙 − 1层)中某个局部窗口内的神经元相连,构成一个局部连接网络
  • 权重共享:为一个卷积核只捕捉输入数据中的一种特定的局部特征.因此,如果要提取多种特征就需要使用多个不同的卷积核
  • 空间或时间上的次采样

卷积过程和不同类型的卷积
当卷积核在输入图像上扫描时,将卷积核与输入图像中对应位置的数值逐个相乘,最后汇总求和,就得到该位置的卷积结果。不断移动卷积核,就可算出各个位置的卷积结果。
在这里插入图片描述
卷积的结果按输出长度不同可以分为三类:

  • 窄卷积:步长 𝑇 = 1 ,两端不补零 𝑃 = 0 ,卷积后输出长度为 𝑀 − 𝐾 + 1
  • 宽卷积:步长 𝑇 = 1 ,两端补零 𝑃 = 𝐾 − 1 ,卷积后输出长度 𝑀 + 𝐾 − 1
  • 等宽卷积:步长 𝑇 = 1 ,两端补零 𝑃 =(𝐾 − 1)/2 ,卷积后输出长度 𝑀 (M为输入序列长度,K为窗口大小)

掌握卷积神经网络中卷积核、卷积层、卷积网络结构
卷积层
输入:D个特征映射 M × N × D
输出:P个特征映射 M′ × N′ × P

卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。

  • 趋向于小卷积、大深度
  • 趋向于全卷积

各种不同类型的卷积(空洞卷积等)
问题的产生:如何增加输出单元的感受野?
解决方法:

  1. 增加卷积核的大小 -缺点:增加参数数量,模型变复杂
  2. 增加层数来实现 -缺点: 增加参数数量,模型变复杂
  3. 在卷积之前进行汇聚操作 -缺点:汇聚操作会丢失信息

针对以上,提出了空洞卷积:
空洞卷积通过给卷积核插入“空洞”来变相地增加其大小.如果在卷积核的每两个元素之间插入𝐷 − 1个空洞,卷积核的有效大小为𝐾′ = 𝐾 + (𝐾 − 1) × (𝐷 − 1)其中𝐷 称为膨胀率(Dilation Rate).当𝐷 = 1时卷积核为普通的卷积核.
在这里插入图片描述
各种卷积的动图
附上个人感觉讲的很通俗的一篇文章卷积神经网络——介绍

残差网络机理
残差网络提出的背景。网络越深,表达性能越强。那么网络越深,就一定越优秀吗?

并不是这样的,在网络的训练过程中随着网络层数的增加,网络发生了退化(degradation)的现象:随着网络层数的增多,训练集loss逐渐下降,然后趋于饱和,当你再增加网络深度的话,训练集loss反而会增大。

那么为什么会出现这种现象呢?
在一层又一层的卷积中,是特征的提取过程,但是随着特征的提取也会丢失掉很多信息。在前向传输的过程中,随着层数的加深,特征图包含的图像信息会逐层减少,因此若网络过深可能会起到反作用。

那么如何避免这种情况呢,能不能在提取特征的同时保证信息不丢失?
针对这一问题,残差网络被提了出来。
在这里插入图片描述
残差单元由多个级联的(等宽)卷积层和一个跨层的直连边组成,再经过ReLU激活后得到输出。
多个级联的(等宽)卷积层起到的作用是特征提取。而跨层的直连边起到的作用就是保证在本次操作之后信息不会变的更少。
而在执行加法操作融合之前,为了保证x与提取之后的特征图维度匹配,往往要对x再进行操作(如1*1卷积)以调整x的维度。
假设在一个深度网络中,我们期望一个非线性单元(可以为一层或多层的卷积层)𝑓(𝒙; 𝜃)去逼近一个目标函数为ℎ(𝒙).如果将目标函数拆分成两部分:恒等函数(Identity Function)𝒙和残差函数(Residue Function)ℎ(𝒙) − 𝒙.
呢么就有 ℎ(𝒙) = 𝒙+ (ℎ(𝒙) − 𝒙)
参考详解残差网络

第 6 章 循环神经网络

  • 掌握递归神经网络(RNN)的前向传播,理解反向传播过程(BPTT);
  • 理解梯度消失和梯度爆炸形成原因;
  • 掌握 LSTM 结构及核心思想;
  • 了解 LSTM 的训练过程(误差反向传播);
  • 了解 LSTM 的变体。

掌握递归神经网络(RNN)的前向传播,理解反向传播过程(BPTT)
前向传播:
其中,

  1. x
  2. t
  3. x_t
  4. xt​表示
  5. t
  6. t
  7. t时刻的输入,
  8. s
  9. t
  10. s_t
  11. st​表示
  12. t
  13. t
  14. t时刻的隐状态,
  15. o
  16. t
  17. o_t
  18. ot​表示
  19. t
  20. t
  21. t时刻的输出。

在这里插入图片描述

  1. t
  2. t
  3. t 时刻 中间隐层输入为
  4. s
  5. t
  6. =
  7. U
  8. x
  9. t
  10. +
  11. W
  12. h
  13. t
  14. 1
  15. s_{t}=U x_{t}+W h_{t-1}
  16. st​=Uxt​+Wht1
  17. t
  18. t
  19. t 时刻中间隐层输出为 (其中
  20. f
  21. f
  22. f sigmoid 数)
  23. h
  24. t
  25. =
  26. f
  27. (
  28. s
  29. t
  30. )
  31. h_{t}=f\left(s_{t}\right)
  32. ht​=f(st​)
  33. t
  34. t
  35. t 时刻输出层输出为 (其中
  36. g
  37. g
  38. g softmax 函数)
  39. o
  40. t
  41. =
  42. g
  43. (
  44. V
  45. h
  46. t
  47. )
  48. o_{t}=\mathrm{g}\left(V h_{t}\right)
  49. ot​=g(Vht​)损失函数为
  50. L
  51. t
  52. =
  53. [
  54. y
  55. t
  56. log
  57. o
  58. t
  59. +
  60. (
  61. 1
  62. y
  63. t
  64. )
  65. log
  66. (
  67. 1
  68. o
  69. t
  70. )
  71. ]
  72. L_{t}=-\left[y_{t} \log o_{t}+\left(1-y_{t}\right) \log \left(1-o_{t}\right)\right]
  73. Lt​=−[ytlogot​+(1yt​)log(1ot​)]

LSTM
在这里插入图片描述

  1. t
  2. t
  3. t 时刻, LSTM的更新方式:

遗忘门

  1. f
  2. t
  3. =
  4. σ
  5. (
  6. W
  7. f
  8. h
  9. t
  10. 1
  11. +
  12. U
  13. f
  14. x
  15. t
  16. +
  17. b
  18. f
  19. )
  20. f^{t}=\sigma\left(W_{f} \cdot h^{t-1}+U_{f} \cdot x^{t}+b_{f}\right)
  21. ft=σ(Wf​⋅ht1+Uf​⋅xt+bf​)

输入门

  1. i
  2. t
  3. =
  4. σ
  5. (
  6. W
  7. i
  8. h
  9. t
  10. 1
  11. +
  12. U
  13. i
  14. x
  15. t
  16. +
  17. b
  18. i
  19. )
  20. i^{t}=\sigma\left(W_{i} \cdot h^{t-1}+U_{i} \cdot x^{t}+b_{i}\right)
  21. it=σ(Wi​⋅ht1+Ui​⋅xt+bi​)

侯选内部记忆单元

  1. c
  2. ~
  3. t
  4. =
  5. tanh
  6. (
  7. W
  8. c
  9. h
  10. t
  11. 1
  12. +
  13. U
  14. c
  15. x
  16. t
  17. +
  18. b
  19. c
  20. )
  21. \tilde{c}^{t}=\tanh \left(W_{c} \cdot h^{t-1}+U_{c} \cdot x^{t}+b_{c}\right)
  22. c~t=tanh(Wc​⋅ht1+Uc​⋅xt+bc​)

内部记忆单元

  1. c
  2. t
  3. =
  4. f
  5. t
  6. c
  7. t
  8. 1
  9. +
  10. i
  11. t
  12. c
  13. ~
  14. t
  15. c^{t}=f^{t} * c^{t-1}+i^{t} * \tilde{c}^{t}
  16. ct=ftct1+itc~t

输出门

  1. o
  2. t
  3. =
  4. σ
  5. (
  6. W
  7. o
  8. h
  9. t
  10. 1
  11. +
  12. U
  13. o
  14. x
  15. t
  16. +
  17. b
  18. o
  19. )
  20. o^{t}=\sigma\left(W_{o} \cdot h^{t-1}+U_{o} \cdot x^{t}+b_{o}\right)
  21. ot=σ(Wo​⋅ht1+Uo​⋅xt+bo​)

隐层输出

  1. h
  2. t
  3. =
  4. o
  5. t
  6. tanh
  7. (
  8. c
  9. t
  10. )
  11. h^{t}=o^{t} * \tanh \left(c^{t}\right)
  12. ht=ottanh(ct)

本文转载自: https://blog.csdn.net/Kilig___/article/details/125350630
版权归原作者 Kilig* 所有, 如有侵权,请联系我们删除。

“神经网络与深度学习”的评论:

还没有评论