0


PyTorch中学习率调度器可视化介绍

神经网络有许多影响模型性能的超参数。一个最基本的超参数是学习率(LR),它决定了在训练步骤之间模型权重的变化程度。在最简单的情况下,LR值是0到1之间的固定值。

选择正确的LR值是具有挑战性。一方面较大的学习率有助于算法快速收敛,但它也会导致算法在最小值附近跳跃而没有达到它,甚至在它太大时跳过它。另一方面,较小的学习率可以更好地收敛到最小值,但是如果优化器太小,可能需要太长时间才能收敛,或者陷入停滞。

什么是学习率调度器?

一种帮助算法快速收敛到最优的解决方案是使用学习率调度器。学习率调度器在训练过程中根据预先定义的时间表调整学习率。

通常,学习率在训练开始时设置为比较高的值,允许更快的收敛。随着训练的进行,学习率会降低,使收敛到最优,获得更好的性能。在训练过程中降低学习率也称为退火或衰减。

学习率调度器有很多个,并且我们还可以自定义调度器。本文将介绍PyTorch中不同的预定义学习率调度器如何在训练期间调整学习率

学习率调度器

对于本文,我们使用PyTorch 1.13.0版本。你可以在PyTorch文档中阅读更多关于学习率调度器的细节。

  1. import torch

在本文末尾的附录中会包含用于可视化PyTorch学习率调度器的Python代码。

1、StepLR

在每个预定义的训练步骤数之后,StepLR通过乘法因子降低学习率。

  1. from torch.optim.lr_scheduler import StepLR
  2. scheduler = StepLR(optimizer,
  3. step_size = 4, # Period of learning rate decay
  4. gamma = 0.5) # Multiplicative factor of learning rate decay

2、MultiStepLR

MultiStepLR -类似于StepLR -也通过乘法因子降低了学习率,但在可以自定义修改学习率的时间节点。

  1. from torch.optim.lr_scheduler import MultiStepLR
  2. scheduler = MultiStepLR(optimizer,
  3. milestones=[8, 24, 28], # List of epoch indices
  4. gamma =0.5) # Multiplicative factor of learning rate decay

3、ConstantLR

ConstantLR通过乘法因子降低学习率,直到训练达到预定义步数。

  1. from torch.optim.lr_scheduler import ConstantLR
  2. scheduler = ConstantLR(optimizer,
  3. factor = 0.5, # The number we multiply learning rate until the milestone.
  4. total_iters = 8) # The number of steps that the scheduler decays the learning rate

如果起始因子小于1,那么学习率调度器在训练过程中会提高学习率,而不是降低学习率。

4、LinearLR

LinearLR -类似于ConstantLR -在训练开始时通过乘法因子降低了学习率。但是它会在一定数量的训练步骤中线性地改变学习率,直到它达到最初设定的学习率。

  1. from torch.optim.lr_scheduler import LinearLR
  2. scheduler = LinearLR(optimizer,
  3. start_factor = 0.5, # The number we multiply learning rate in the first epoch
  4. total_iters = 8) # The number of iterations that multiplicative factor reaches to 1

5、ExponentialLR

ExponentialLR在每个训练步骤中通过乘法因子降低学习率。

  1. rom torch.optim.lr_scheduler import ExponentialLR
  2. scheduler = ExponentialLR(optimizer,
  3. gamma = 0.5) # Multiplicative factor of learning rate decay.

6、PolynomialLR

PolynomialLR通过对定义的步骤数使用多项式函数来降低学习率。

  1. from torch.optim.lr_scheduler import PolynomialLR
  2. scheduler = PolynomialLR(optimizer,
  3. total_iters = 8, # The number of steps that the scheduler decays the learning rate.
  4. power = 1) # The power of the polynomial.

下图为power= 1时的学习率衰减结果。

power= 2时,学习率衰减如下所示。

7、CosineAnnealingLR

CosineAnnealingLR通过余弦函数降低学习率。

可以从技术上安排学习率调整以跟随多个周期,但他的思想是在半个周期内衰减学习率以获得最大的迭代次数。

  1. from torch.optim.lr_scheduler import CosineAnnealingLR
  2. scheduler = CosineAnnealingLR(optimizer,
  3. T_max = 32, # Maximum number of iterations.
  4. eta_min = 1e-4) # Minimum learning rate.

两位Kaggle大赛大师Philipp Singer和Yauhen Babakhin建议使用余弦衰减作为深度迁移学习[2]的学习率调度器。

8、CosineAnnealingWarmRestartsLR

CosineAnnealingWarmRestartsLR类似于CosineAnnealingLR。但是它允许在(例如,每个轮次中)使用初始LR重新启动LR计划。

  1. from torch.optim.lr_scheduler import CosineAnnealingWarmRestarts
  2. scheduler = CosineAnnealingWarmRestarts(optimizer,
  3. T_0 = 8,# Number of iterations for the first restart
  4. T_mult = 1, # A factor increases TiTi after a restart
  5. eta_min = 1e-4) # Minimum learning rate

这个计划调度于2017年[1]推出。虽然增加LR会导致模型发散但是这种有意的分歧使模型能够逃避局部最小值,并找到更好的全局最小值。

9、CyclicLR

CyclicLR根据循环学习率策略调整学习率,该策略基于我们在前一节中讨论过的重启的概念。在PyTorch中有三个内置策略。

  1. from torch.optim.lr_scheduler import CyclicLR
  2. scheduler = CyclicLR(optimizer,
  3. base_lr = 0.0001, # Initial learning rate which is the lower boundary in the cycle for each parameter group
  4. max_lr = 1e-3, # Upper learning rate boundaries in the cycle for each parameter group
  5. step_size_up = 4, # Number of training iterations in the increasing half of a cycle
  6. mode = "triangular")

当mode = " triangle "时,学习率衰减将遵循一个基本的三角形循环,没有振幅缩放,如下图所示。

对于mode = " triangar2 ",所得到的学习率衰减将遵循一个基本的三角形循环,每个循环将初始振幅缩放一半,如下图所示。

使用mode = "exp_range",得到的学习率衰减将如下所示。

10、OneCycleLR

OneCycleLR根据1cycle学习率策略降低学习率,该策略在2017年[3]的一篇论文中提出。

与许多其他学习率调度器相比,学习率不仅在训练过程中下降。相反,学习率从初始学习率增加到某个最大学习率,然后再次下降。

  1. from torch.optim.lr_scheduler import OneCycleLR
  2. scheduler = OneCycleLR(optimizer,
  3. max_lr = 1e-3, # Upper learning rate boundaries in the cycle for each parameter group
  4. steps_per_epoch = 8, # The number of steps per epoch to train for.
  5. epochs = 4, # The number of epochs to train for.
  6. anneal_strategy = 'cos') # Specifies the annealing strategy

使用anneal_strategy = "cos"得到的学习率衰减将如下所示。

使用anneal_strategy = "linear",得到的学习率衰减将如下所示。

11、ReduceLROnPlateauLR

当指标度量停止改进时,ReduceLROnPlateau会降低学习率。这很难可视化,因为学习率降低时间取决于您的模型、数据和超参数。

12、自定义学习率调度器

如果内置的学习率调度器不能满足需求,我们可以使用lambda函数定义一个调度器。lambda函数是一个返回基于epoch值的乘法因子的函数。

LambdaLR通过将lambda函数的乘法因子应用到初始LR来调整学习速率。

  1. lr_epoch[t] = lr_initial * lambda(epoch)

MultiplicativeLR通过将lambda函数的乘法因子应用到前一个epoch的LR来调整学习速率。

  1. lr_epoch[t] = lr_epoch[t-1] * lambda(epoch)

这些学习率调度器也有点难以可视化,因为它们高度依赖于已定义的lambda函数。

可视化汇总

以上就是PyTorch内置的学习率调度器,应该为深度学习项目选择哪种学习率调度器呢?

答案并不那么容易,ReduceLROnPlateau是一个流行的学习率调度器。而现在其他的方法如CosineAnnealingLR和OneCycleLR或像cosineannealingwarmrestart和CyclicLR这样的热重启方法已经越来越受欢迎。

所以我们需要运行一些实验来确定哪种学习率调度器最适合要解决问题。但是可以说的是使用任何学习调度器都会影响到模型性能。

下面是PyTorch中讨论过的学习率调度器的可视化总结。

引用和附录

[1] Loshchilov, I., & Hutter, F. (2016). Sgdr: Stochastic gradient descent with warm restarts. arXiv preprint arXiv:1608.03983.

[2] Singer, P. & Babakhin, Y. (2022) Practical Tips for Deep Transfer Learning. In: Kaggle Days Paris 2022.

[3] Smith, L. N., & Topin, N. (2019). Super-convergence: Very fast training of neural networks using large learning rates. In Artificial intelligence and machine learning for multi-domain operations applications (Vol. 11006, pp. 369–386). SPIE.

下面是来可视化学习率调度器的代码:

  1. import torch
  2. from torch.optim.lr_scheduler import StepLR # Import your choice of scheduler here
  3. import matplotlib.pyplot as plt
  4. from matplotlib.ticker import MultipleLocator
  5. LEARNING_RATE = 1e-3
  6. EPOCHS = 4
  7. STEPS_IN_EPOCH = 8
  8. # Set model and optimizer
  9. model = torch.nn.Linear(2, 1)
  10. optimizer = torch.optim.SGD(model.parameters(), lr=LEARNING_RATE)
  11. # Define your scheduler here as described above
  12. # ...
  13. # Get learning rates as each training step
  14. learning_rates = []
  15. for i in range(EPOCHS*STEPS_IN_EPOCH):
  16. optimizer.step()
  17. learning_rates.append(optimizer.param_groups[0]["lr"])
  18. scheduler.step()
  19. # Visualize learinig rate scheduler
  20. fig, ax = plt.subplots(1,1, figsize=(10,5))
  21. ax.plot(range(EPOCHS*STEPS_IN_EPOCH),
  22. learning_rates,
  23. marker='o',
  24. color='black')
  25. ax.set_xlim([0, EPOCHS*STEPS_IN_EPOCH])
  26. ax.set_ylim([0, LEARNING_RATE + 0.0001])
  27. ax.set_xlabel('Steps')
  28. ax.set_ylabel('Learning Rate')
  29. ax.spines['top'].set_visible(False)
  30. ax.spines['right'].set_visible(False)
  31. ax.xaxis.set_major_locator(MultipleLocator(STEPS_IN_EPOCH))
  32. ax.xaxis.set_minor_locator(MultipleLocator(1))
  33. plt.show()

作者:Leonie Monigatti

“PyTorch中学习率调度器可视化介绍”的评论:

还没有评论