0


Pytorch优化器全总结(四)常用优化器性能对比 含代码

优化器系列文章列表

Pytorch优化器全总结(一)SGD、ASGD、Rprop、Adagrad

Pytorch优化器全总结(二)Adadelta、RMSprop、Adam、Adamax、AdamW、NAdam、SparseAdam

Pytorch优化器全总结(三)牛顿法、BFGS、L-BFGS 含代码

Pytorch优化器全总结(四)常用优化器性能对比 含代码

写在前面

  1. 常用的优化器我已经用三篇文章介绍完了,现在我将对比一下这些优化器的收敛速度。
  2. 下面我将简单介绍一下要对比的优化器,每种我只用一到两句话介绍,详细介绍请跳转上面的链接,每种优化器都详细介绍过。

一、优化器介绍

1.SGD+Momentum

  1. 带动量 SGD 优化算法,Momentum通过将当前梯度与过去梯度加权平均,来获取即将更新的梯度,有助于在相关方向上加速SGD并抑制振荡。

2.Adagrad

  1. 每个时间步长对每个参数使用不同的学习率。 引入了梯度的二阶矩,二阶矩是迄今为止所有梯度值的平方和,二阶矩的越大,代表步长的不确定性越大,学习率就越小,反之学习率越大。

3.Adadelta

  1. 对于每个维度,用梯度平方的指数加权平均代替了全部梯度的平方和,避免了后期更新时更新幅度逐渐趋近于0的问题。
  2. 用更新量的平方的指数加权平均来动态得代替了全局的标量的学习率,避免了对学习率的敏感。

4.RMSprop

  1. Adadelta同一时期,等价于实现了Adadelta的第一个改动。

5.Adam

  1. 同时使用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。 一阶矩来控制模型更新的方向,二阶矩控制步长(学习率)。

6.Adamax

  1. Adam的基础上,为学习率的上限限制了范围。将Adam的二范数(二阶矩估计)推广到无穷范数,因为无穷范数,就是取向量的最大值,这就为学习率的上限提供了一个更简单的范围。

7.AdaW

  1. 使用adam+权重衰减的方式解决了adam+L2正则化表现不佳的问题。

8.L-BFGS

  1. 牛顿法是基于迭代的二阶优化方法,对于高维的应用场景,求二阶导变得不可行;BFGS对牛顿法做了改进,用一阶导和一个基于迭代的矩阵H模拟海森矩阵,从而降低计算的复杂度;BFGS虽然对牛顿法做了优化,但是H的存储空间至少为N(N+1)/2N为特征维数),需要的存储空间将是非常巨大的,L-BFGS采用加窗的方式,通过存储前m次迭代的少量数据来替代前一次的H矩阵,从而大大减少数据的存储空间。

二、优化器对比

  1. 下面我们将对比SGDSGD+MomentumAdagradAdadeltaRMSpropAdamAdamaxAdaWL-BFGS的收敛速度。
  2. 代码如下:
  1. import torch
  2. import torch.utils.data as Data
  3. import torch.nn.functional as F
  4. from torch.autograd import Variable
  5. import matplotlib.pyplot as plt
  6. # 超参数
  7. LR = 0.01
  8. BATCH_SIZE = 32
  9. EPOCH = 12
  10. # 生成假数据
  11. # torch.unsqueeze() 的作用是将一维变二维,torch只能处理二维的数据
  12. x = torch.unsqueeze(torch.linspace(-1, 1, 1000), dim=1) # x data (tensor), shape(100, 1)
  13. # 0.2 * torch.rand(x.size())增加噪点
  14. y = x.pow(2) + 0.1 * torch.normal(torch.zeros(*x.size()))
  15. # 定义数据库
  16. dataset = Data.TensorDataset(x, y)
  17. # 定义数据加载器
  18. loader = Data.DataLoader(dataset=dataset, batch_size=BATCH_SIZE, shuffle=True, num_workers=0)
  19. # 定义pytorch网络
  20. class Net(torch.nn.Module):
  21. def __init__(self, n_features, n_hidden, n_output):
  22. super(Net, self).__init__()
  23. self.hidden = torch.nn.Linear(n_features, n_hidden)
  24. self.predict = torch.nn.Linear(n_hidden, n_output)
  25. def forward(self, x):
  26. x = F.relu(self.hidden(x))
  27. y = self.predict(x)
  28. return y
  29. # 定义不同的优化器网络
  30. net_SGD = Net(1, 10, 1)
  31. net_Momentum = Net(1, 10, 1)
  32. net_Adagrad = Net(1, 10, 1)
  33. net_Adadelta = Net(1, 10, 1)
  34. net_RMSprop = Net(1, 10, 1)
  35. net_Adam = Net(1, 10, 1)
  36. net_Adamax = Net(1, 10, 1)
  37. net_AdamW = Net(1, 10, 1)
  38. net_LBFGS = Net(1, 10, 1)
  39. # 选择不同的优化方法
  40. opt_SGD = torch.optim.SGD(net_SGD.parameters(), lr=LR)
  41. opt_Momentum = torch.optim.SGD(net_Momentum.parameters(), lr=LR, momentum=0.9)
  42. opt_Adagrad = torch.optim.Adagrad(net_Adagrad.parameters(), lr=LR)
  43. opt_Adadelta = torch.optim.Adadelta(net_Adadelta.parameters(), lr=LR)
  44. opt_RMSprop = torch.optim.RMSprop(net_RMSprop.parameters(), lr=LR, alpha=0.9)
  45. opt_Adam = torch.optim.Adam(net_Adam.parameters(), lr=LR, betas=(0.9, 0.99))
  46. opt_Adamax = torch.optim.Adamax(net_Adamax.parameters(), lr=LR, betas=(0.9, 0.99))
  47. opt_AdamW = torch.optim.AdamW(net_AdamW.parameters(), lr=LR, betas=(0.9, 0.99))
  48. opt_LBFGS = torch.optim.LBFGS(net_LBFGS.parameters(), lr=LR, max_iter=10, max_eval=10)
  49. nets = [net_SGD, net_Momentum, net_Adagrad, net_Adadelta, net_RMSprop, net_Adam, net_Adamax, net_AdamW, net_LBFGS]
  50. optimizers = [opt_SGD, opt_Momentum, opt_Adagrad, opt_Adadelta, opt_RMSprop, opt_Adam, opt_Adamax, opt_AdamW, opt_LBFGS]
  51. # 选择损失函数
  52. loss_func = torch.nn.MSELoss()
  53. # 不同方法的loss
  54. loss_SGD = []
  55. loss_Momentum = []
  56. loss_Adagrad = []
  57. loss_Adadelta = []
  58. loss_RMSprop = []
  59. loss_Adam = []
  60. loss_Adamax = []
  61. loss_AdamW = []
  62. loss_LBFGS = []
  63. # 保存所有loss
  64. losses = [loss_SGD, loss_Momentum, loss_Adagrad, loss_Adadelta, loss_RMSprop, loss_Adam, loss_Adamax, loss_AdamW, loss_LBFGS]
  65. # 执行训练
  66. for epoch in range(EPOCH):
  67. for step, (batch_x, batch_y) in enumerate(loader):
  68. var_x = Variable(batch_x)
  69. var_y = Variable(batch_y)
  70. for net, optimizer, loss_history in zip(nets, optimizers, losses):
  71. if isinstance(optimizer, torch.optim.LBFGS):
  72. def closure():
  73. y_pred = net(var_x)
  74. loss = loss_func(y_pred, var_y)
  75. optimizer.zero_grad()
  76. loss.backward()
  77. return loss
  78. loss = optimizer.step(closure)
  79. else:
  80. # 对x进行预测
  81. prediction = net(var_x)
  82. # 计算损失
  83. loss = loss_func(prediction, var_y)
  84. # 每次迭代清空上一次的梯度
  85. optimizer.zero_grad()
  86. # 反向传播
  87. loss.backward()
  88. # 更新梯度
  89. optimizer.step()
  90. # 保存loss记录
  91. loss_history.append(loss.data)
  92. # 画图
  93. labels = ['SGD', 'Momentum', 'Adagrad', 'Adadelta', 'RMSprop', 'Adam', 'Adamax', 'AdamW', 'LBFGS']
  94. for i, loss_history in enumerate(losses):
  95. plt.plot(loss_history, label=labels[i])
  96. plt.legend(loc='best')
  97. plt.xlabel('Steps')
  98. plt.ylabel('Loss')
  99. plt.ylim((0, 0.2))
  100. plt.show()

  1. 从图中可以看到,AdamAdamaxAdaWL-BFGS收敛速度要更快,当然这次实验只代表一般情况下的结果,项目中还是要以实际效果为准,大家在实际项目中还是要多试几种,选择适合自己的。
  2. 算法的性能比较就介绍到这里,收藏关注不迷路。

优化器系列文章列表

Pytorch优化器全总结(一)SGD、ASGD、Rprop、Adagrad

Pytorch优化器全总结(二)Adadelta、RMSprop、Adam、Adamax、AdamW、NAdam、SparseAdam

Pytorch优化器全总结(三)牛顿法、BFGS、L-BFGS 含代码

Pytorch优化器全总结(四)常用优化器性能对比 含代码


本文转载自: https://blog.csdn.net/xian0710830114/article/details/128658682
版权归原作者 小殊小殊 所有, 如有侵权,请联系我们删除。

“Pytorch优化器全总结(四)常用优化器性能对比 含代码”的评论:

还没有评论