0


YOLOv5源码逐行超详细注释与解读(3)——训练部分train.py

前言

本篇文章主要是对YOLOv5项目的训练部分train.py。通常这个文件主要是用来读取用户自己的数据集,加载模型并训练。

文章代码逐行手打注释,每个模块都有对应讲解,一文帮你梳理整个代码逻辑!

友情提示:全文近5万字,可以先点再慢慢看哦~

源码下载地址:mirrors / ultralytics / yolov5 · GitCode

🍀本人YOLOv5源码详解系列:

YOLOv5源码逐行超详细注释与解读(1)——项目目录结构解析
YOLOv5源码逐行超详细注释与解读(2)——推理部分detect.py

YOLOv5源码逐行超详细注释与解读(3)——训练部分train.py
YOLOv5源码逐行超详细注释与解读(4)——验证部分val(test).py

YOLOv5源码逐行超详细注释与解读(5)——配置文件yolov5s.yaml

YOLOv5源码逐行超详细注释与解读(6)——网络结构(1)yolo.py

YOLOv5源码逐行超详细注释与解读(7)——网络结构(2)common.py


🚀一、导包和基本配置

1.1 Usage

  1. """
  2. Train a YOLOv5 model on a custom dataset
  3. 在数据集上训练 yolo v5 模型
  4. Usage:
  5. $ python path/to/train.py --data coco128.yaml --weights yolov5s.pt --img 640
  6. 训练数据为coco128 coco128数据集中有128张图片 80个类别,是规模较小的数据集
  7. """

这里是开头作者注释的一个部分,意在说明一些项目基本情况。
第一行表示我们用的模型是YOLOv5

第二行表示我们传入的data数据集是coco128数据集,有128张图片,80个类别,使用的权重模型是yolov5s模型,–img表示图片大小640。

1.2 导入安装好的python库

  1. '''======================1.导入安装好的python库====================='''
  2. import argparse # 解析命令行参数模块
  3. import math # 数学公式模块
  4. import os # 与操作系统进行交互的模块 包含文件路径操作和解析
  5. import random # 生成随机数模块
  6. import sys # sys系统模块 包含了与Python解释器和它的环境有关的函数
  7. import time # 时间模块 更底层
  8. from copy import deepcopy # 深度拷贝模块
  9. from datetime import datetime # datetime模块能以更方便的格式显示日期或对日期进行运算。
  10. from pathlib import Path # Path将str转换为Path对象 使字符串路径易于操作的模块
  11. import numpy as np # numpy数组操作模块
  12. import torch # 引入torch
  13. import torch.distributed as dist # 分布式训练模块
  14. import torch.nn as nn # 对torch.nn.functional的类的封装 有很多和torch.nn.functional相同的函数
  15. import yaml # yaml是一种直观的能够被电脑识别的的数据序列化格式,容易被人类阅读,并且容易和脚本语言交互。一般用于存储配置文件。
  16. from torch.cuda import amp # PyTorch amp自动混合精度训练模块
  17. from torch.nn.parallel import DistributedDataParallel as DDP # 多卡训练模块
  18. from torch.optim import SGD, Adam, lr_scheduler # tensorboard模块
  19. from tqdm import tqdm # 进度条模块

首先,导入一下常用的python库

  • argparse: 它是一个用于命令项选项与参数解析的模块,通过在程序中定义好我们需要的参数,argparse 将会从 sys.argv 中解析出这些参数,并自动生成帮助和使用信息
  • math: 调用这个库进行数学运算
  • os:它提供了多种操作系统的接口。通过os模块提供的操作系统接口,我们可以对操作系统里文件、终端、进程等进行操作
  • **random: **是使用随机数的Python标准库。random库主要用于生成随机数
  • sys:它是与python解释器交互的一个接口,该模块提供对解释器使用或维护的一些变量的访问和获取,它提供了许多函数和变量来处理 Python 运行时环境的不同部分
  • time: Python中处理时间的标准库,是最基础的时间处理库
  • copy: Python 中赋值语句不复制对象,而是在目标和对象之间创建绑定 (bindings) 关系。copy模块提供了通用的浅层复制和深层复制操作
  • **datetime: **是Python常用的一个库,主要用于时间解析和计算
  • pathlib: 这个库提供了一种面向对象的方式来与文件系统交互,可以让代码更简洁、更易读

然后再导入一些pytorch库

  • numpy: 科学计算库,提供了矩阵,线性代数,傅立叶变换等等的解决方案, 最常用的是它的N维数组对象
  • torch: 这是主要的Pytorch库。它提供了构建、训练和评估神经网络的工具
  • torch.distributed: torch.distributed包提供Pytorch支持和通信基元,对多进程并行,在一个或多个机器上运行的若干个计算阶段
  • torch.nn: torch下包含用于搭建神经网络的modules和可用于继承的类的一个子包
  • yaml: yaml是一种直观的能够被电脑识别的的数据序列化格式,容易被人类阅读,并且容易和脚本语言交互。一般用于存储配置文件
  • torch.cuda.amp: 自动混合精度训练 —— 节省显存并加快推理速度
  • torch.nn.parallel: 构建分布式模型,并行加速程度更高,且支持多节点多gpu的硬件拓扑结构
  • torch.optim: 优化器 Optimizer。主要是在模型训练阶段对模型可学习参数进行更新,常用优化器有 SGD,RMSprop,Adam等
  • tqdm: 就是我们看到的训练时进度条显示

1.3 获取当前文件的绝对路径

  1. '''===================2.获取当前文件的绝对路径========================'''
  2. FILE = Path(__file__).resolve() # __file__指的是当前文件(即train.py),FILE最终保存着当前文件的绝对路径,比如D://yolov5/train.py
  3. ROOT = FILE.parents[0] # YOLOv5 root directory ROOT保存着当前项目的父目录,比如 D://yolov5
  4. if str(ROOT) not in sys.path: # sys.path即当前python环境可以运行的路径,假如当前项目不在该路径中,就无法运行其中的模块,所以就需要加载路径
  5. sys.path.append(str(ROOT)) # add ROOT to PATH 把ROOT添加到运行路径上
  6. ROOT = Path(os.path.relpath(ROOT, Path.cwd())) # relative ROOT设置为相对路径

这段代码会获取当前文件的绝对路径,并使用Path库将其转换为Path对象。

这一部分的主要作用有两个:

  • 将当前项目添加到系统路径上,以使得项目中的模块可以调用。
  • 将当前项目的相对路径保存在ROOT中,便于寻找项目中的文件。

1.4 加载自定义模块

  1. '''===================3..加载自定义模块============================'''
  2. import val # for end-of-epoch mAP
  3. from models.experimental import attempt_load
  4. from models.yolo import Model
  5. from utils.autoanchor import check_anchors
  6. from utils.autobatch import check_train_batch_size
  7. from utils.callbacks import Callbacks
  8. from utils.datasets import create_dataloader
  9. from utils.downloads import attempt_download
  10. from utils.general import (LOGGER, NCOLS, check_dataset, check_file, check_git_status, check_img_size,
  11. check_requirements, check_suffix, check_yaml, colorstr, get_latest_run, increment_path,
  12. init_seeds, intersect_dicts, labels_to_class_weights, labels_to_image_weights, methods,
  13. one_cycle, print_args, print_mutation, strip_optimizer)
  14. from utils.loggers import Loggers
  15. from utils.loggers.wandb.wandb_utils import check_wandb_resume
  16. from utils.loss import ComputeLoss
  17. from utils.metrics import fitness
  18. from utils.plots import plot_evolve, plot_labels
  19. from utils.torch_utils import EarlyStopping, ModelEMA, de_parallel, select_device, torch_distributed_zero_first

这些都是用户自定义的库,由于上一步已经把路径加载上了,所以现在可以导入,这个顺序不可以调换。具体来说,代码从如下几个文件中导入了部分函数和类:

  • val: 这个是测试集,我们下一篇再具体讲
  • models.experimental: 实验性质的代码,包括MixConv2d、跨层权重Sum等
  • models.yolo: yolo的特定模块,包括BaseModel,DetectionModel,ClassificationModel,parse_model等
  • utils.autoanchor: 定义了自动生成锚框的方法
  • utils.autobatch: 定义了自动生成批量大小的方法
  • utils.callbacks: 定义了回调函数,主要为logger服务
  • utils.datasets: dateset和dateloader定义代码
  • utils.downloads: 谷歌云盘内容下载
  • utils.general: 定义了一些常用的工具函数,比如检查文件是否存在、检查图像大小是否符合要求、打印命令行参数等等
  • utils.loggers : 日志打印
  • utils.loss: 存放各种损失函数
  • utils.metrics: 模型验证指标,包括ap,混淆矩阵等
  • utils.plots.py: 定义了Annotator类,可以在图像上绘制矩形框和标注信息
  • utils.torch_utils.py: 定义了一些与PyTorch有关的工具函数,比如选择设备、同步时间等

通过导入这些模块,可以更方便地进行目标检测的相关任务,并且减少了代码的复杂度和冗余。


1.5 分布式训练初始化

  1. '''================4.分布式训练初始化==========================='''
  2. # https://pytorch.org/docs/stable/elastic/run.html该网址有详细介绍
  3. LOCAL_RANK = int(os.getenv('LOCAL_RANK', -1)) # -本地序号。这个 Worker 是这台机器上的第几个 Worker
  4. RANK = int(os.getenv('RANK', -1)) # -进程序号。这个 Worker 是全局第几个 Worker
  5. WORLD_SIZE = int(os.getenv('WORLD_SIZE', 1)) # 总共有几个 Worker
  6. '''
  7. 查找名为LOCAL_RANK,RANK,WORLD_SIZE的环境变量,
  8. 若存在则返回环境变量的值,若不存在则返回第二个参数(-1,默认None)
  9. rank和local_rank的区别: 两者的区别在于前者用于进程间通讯,后者用于本地设备分配。
  10. '''

接下来是设置分布式训练时所需的环境变量。分布式训练指的是多GPU训练,将训练参数分布在多个GPU上进行训练,有利于提升训练效率。


🚀二、执行main()函数

2.1 检查分布式训练环境

  1. def main(opt, callbacks=Callbacks()):
  2. '''
  3. 2.1 检查分布式训练环境
  4. '''
  5. # Checks
  6. if RANK in [-1, 0]: # 若进程编号为-1或0
  7. # 输出所有训练参数 / 参数以彩色的方式表现
  8. print_args(FILE.stem, opt)
  9. # 检测YOLO v5的github仓库是否更新,若已更新,给出提示
  10. check_git_status()
  11. # 检查requirements.txt所需包是否都满足
  12. check_requirements(exclude=['thop'])

这段代码主要是检查分布式训练的环境

若RANK为-1或0,会执行下面三行代码,打印参数并检查github仓库和依赖库。

  • 第一行代码,负责打印文件所用到的参数信息,这个参数包括命令行传入进去的参数以及默认参数
  • 第二行代码,检查yolov5的github仓库是否更新,如果更新的话,会有一个提示
  • 第三行代码,检查requirements中要求的安装包有没有正确安装成功,没有成功的话会给予一定的提示

2.2 判断是否断点续训

  1. '''
  2. 2.2 判断是否断点续训
  3. '''
  4. # Resume
  5. if opt.resume and not check_wandb_resume(opt) and not opt.evolve: # resume an interrupted run
  6. # isinstance()是否是已经知道的类型
  7. # 如果resume是True,则通过get_lastest_run()函数找到runs为文件夹中最近的权重文件last.pt
  8. ckpt = opt.resume if isinstance(opt.resume, str) else get_latest_run() # specified or most recent path
  9. # 判断是否为文件,若不是文件抛出异常
  10. assert os.path.isfile(ckpt), 'ERROR: --resume checkpoint does not exist'
  11. # opt.yaml是训练时的命令行参数文件
  12. with open(Path(ckpt).parent.parent / 'opt.yaml', errors='ignore') as f:
  13. # 超参数替换,将训练时的命令行参数加载进opt参数对象中
  14. opt = argparse.Namespace(**yaml.safe_load(f)) # replace
  15. # opt.cfg设置为'' 对应着train函数里面的操作(加载权重时是否加载权重里的anchor)
  16. opt.cfg, opt.weights, opt.resume = '', ckpt, True # reinstate
  17. # 打印从ckpt恢复断点训练信息
  18. LOGGER.info(f'Resuming training from {ckpt}')
  19. else:
  20. # 不使用断点续训,就从文件中读取相关参数
  21. # check_file (utils/general.py)的作用为查找/下载文件 并返回该文件的路径。
  22. opt.data, opt.cfg, opt.hyp, opt.weights, opt.project = \
  23. check_file(opt.data), check_yaml(opt.cfg), check_yaml(opt.hyp), str(opt.weights), str(opt.project) # checks
  24. # 如果模型文件和权重文件为空,弹出警告
  25. assert len(opt.cfg) or len(opt.weights), 'either --cfg or --weights must be specified'
  26. # 如果要进行超参数进化,重建保存路径
  27. if opt.evolve:
  28. # 设置新的项目输出目录
  29. opt.project = str(ROOT / 'runs/evolve')
  30. # 将resume传递给exist_ok
  31. opt.exist_ok, opt.resume = opt.resume, False # pass resume to exist_ok and disable resume
  32. # 根据opt.project生成目录,并赋值给opt.save_dir 如: runs/train/exp1
  33. opt.save_dir = str(increment_path(Path(opt.project) / opt.name, exist_ok=opt.exist_ok))

这段代码主要是关于断点训练的判断和准备

断点训练是当训练异常终止或想调节超参数时,系统会保留训练异常终止前的超参数与训练参数,当下次训练开始时,并不会从头开始,而是从上次中断的地方继续训练。

  • 使用断点续训,就从last.pt中读取相关参数
  • 不使用断点续训,就从文件中读取相关参数

2.3 判断是否分布式训练

  1. '''
  2. 2.3 判断是否分布式训练
  3. '''
  4. # DDP mode --> 支持多机多卡、分布式训练
  5. # 选择程序装载的位置
  6. device = select_device(opt.device, batch_size=opt.batch_size)
  7. # 当进程内的GPU编号不为-1时,才会进入DDP
  8. if LOCAL_RANK != -1:
  9. # 用于DDP训练的GPU数量不足
  10. assert torch.cuda.device_count() > LOCAL_RANK, 'insufficient CUDA devices for DDP command'
  11. # WORLD_SIZE表示全局的进程数
  12. assert opt.batch_size % WORLD_SIZE == 0, '--batch-size must be multiple of CUDA device count'
  13. # 不能使用图片采样策略
  14. assert not opt.image_weights, '--image-weights argument is not compatible with DDP training'
  15. # 不能使用超参数进化
  16. assert not opt.evolve, '--evolve argument is not compatible with DDP training'
  17. # 设置装载程序设备
  18. torch.cuda.set_device(LOCAL_RANK)
  19. # 保存装载程序的设备
  20. device = torch.device('cuda', LOCAL_RANK)
  21. # torch.distributed是用于多GPU训练的模块
  22. dist.init_process_group(backend="nccl" if dist.is_nccl_available() else "gloo")

这段代码主要是检查DDP训练的配置,并设置GPU

DDP(Distributed Data Parallel)用于单机或多机的多GPU分布式训练,但目前DDP只能在Linux下使用。这部分它会选择你是使用cpu还是gpu,假如你采用的是分布式训练的话,它就会额外执行下面的一些操作,我们这里一般不会用到分布式,所以也就没有执行什么东西。


2.4 判断是否进化训练

  1. '''
  2. 2.4 判断是否进化训练
  3. '''
  4. # Train 训练模式: 如果不进行超参数进化,则直接调用train()函数,开始训练
  5. if not opt.evolve:# 如果不使用超参数进化
  6. # 开始训练
  7. train(opt.hyp, opt, device, callbacks)
  8. if WORLD_SIZE > 1 and RANK == 0:
  9. # 如果全局进程数大于1并且RANK等于0
  10. # 日志输出 销毁进程组
  11. LOGGER.info('Destroying process group... ')
  12. # 训练完毕,销毁所有进程
  13. dist.destroy_process_group()

这段代码是不进行进化训练的情况,此时正常训练。

如果输入evolve会执行else下面这些代码,因为我们没有输入evolve并且不是分布式训练,因此会执行train函数。也就是说,当不使用超参数进化训练时,直接把命令行参数传入train函数,训练完成后销毁所有进程。

接下来我们再看看使用超参数进化训练的情况:

  1. # Evolve hyperparameters (optional) 遗传进化算法,边进化边训练
  2. else:
  3. # Hyperparameter evolution metadata (mutation scale 0-1, lower_limit, upper_limit)
  4. # 超参数列表(突变范围 - 最小值 - 最大值)
  5. meta = {'lr0': (1, 1e-5, 1e-1), # initial learning rate (SGD=1E-2, Adam=1E-3)
  6. 'lrf': (1, 0.01, 1.0), # final OneCycleLR learning rate (lr0 * lrf)
  7. 'momentum': (0.3, 0.6, 0.98), # SGD momentum/Adam beta1
  8. 'weight_decay': (1, 0.0, 0.001), # optimizer weight decay
  9. 'warmup_epochs': (1, 0.0, 5.0), # warmup epochs (fractions ok)
  10. 'warmup_momentum': (1, 0.0, 0.95), # warmup initial momentum
  11. 'warmup_bias_lr': (1, 0.0, 0.2), # warmup initial bias lr
  12. 'box': (1, 0.02, 0.2), # box loss gain
  13. 'cls': (1, 0.2, 4.0), # cls loss gain
  14. 'cls_pw': (1, 0.5, 2.0), # cls BCELoss positive_weight
  15. 'obj': (1, 0.2, 4.0), # obj loss gain (scale with pixels)
  16. 'obj_pw': (1, 0.5, 2.0), # obj BCELoss positive_weight
  17. 'iou_t': (0, 0.1, 0.7), # IoU training threshold
  18. 'anchor_t': (1, 2.0, 8.0), # anchor-multiple threshold
  19. 'anchors': (2, 2.0, 10.0), # anchors per output grid (0 to ignore)
  20. 'fl_gamma': (0, 0.0, 2.0), # focal loss gamma (efficientDet default gamma=1.5)
  21. 'hsv_h': (1, 0.0, 0.1), # image HSV-Hue augmentation (fraction)
  22. 'hsv_s': (1, 0.0, 0.9), # image HSV-Saturation augmentation (fraction)
  23. 'hsv_v': (1, 0.0, 0.9), # image HSV-Value augmentation (fraction)
  24. 'degrees': (1, 0.0, 45.0), # image rotation (+/- deg)
  25. 'translate': (1, 0.0, 0.9), # image translation (+/- fraction)
  26. 'scale': (1, 0.0, 0.9), # image scale (+/- gain)
  27. 'shear': (1, 0.0, 10.0), # image shear (+/- deg)
  28. 'perspective': (0, 0.0, 0.001), # image perspective (+/- fraction), range 0-0.001
  29. 'flipud': (1, 0.0, 1.0), # image flip up-down (probability)
  30. 'fliplr': (0, 0.0, 1.0), # image flip left-right (probability)
  31. 'mosaic': (1, 0.0, 1.0), # image mixup (probability)
  32. 'mixup': (1, 0.0, 1.0), # image mixup (probability)
  33. 'copy_paste': (1, 0.0, 1.0)} # segment copy-paste (probability)
  34. # 加载默认超参数
  35. with open(opt.hyp, errors='ignore') as f:
  36. hyp = yaml.safe_load(f) # load hyps dict
  37. # 如果超参数文件中没有'anchors',则设为3
  38. if 'anchors' not in hyp: # anchors commented in hyp.yaml
  39. hyp['anchors'] = 3
  40. # 使用进化算法时,仅在最后的epoch测试和保存
  41. opt.noval, opt.nosave, save_dir = True, True, Path(opt.save_dir) # only val/save final epoch
  42. # ei = [isinstance(x, (int, float)) for x in hyp.values()] # evolvable indices
  43. evolve_yaml, evolve_csv = save_dir / 'hyp_evolve.yaml', save_dir / 'evolve.csv'
  44. if opt.bucket:
  45. os.system(f'gsutil cp gs://{opt.bucket}/evolve.csv {save_dir}') # download evolve.csv if exists
  46. """
  47. 遗传算法调参:遵循适者生存、优胜劣汰的法则,即寻优过程中保留有用的,去除无用的。
  48. 遗传算法需要提前设置4个参数: 群体大小/进化代数/交叉概率/变异概率
  49. """

这段代码是使用超参数进化训练的前期准备

首先指定每个超参数的突变范围、最大值、最小值,再为超参数的结果保存做好准备。

  1. # 选择超参数的遗传迭代次数 默认为迭代300次
  2. for _ in range(opt.evolve): # generations to evolve
  3. # 如果evolve.csv文件存在
  4. if evolve_csv.exists(): # if evolve.csv exists: select best hyps and mutate
  5. # Select parent(s)
  6. # 选择超参进化方式,只用single和weighted两种
  7. parent = 'single' # parent selection method: 'single' or 'weighted'
  8. # 加载evolve.txt
  9. x = np.loadtxt(evolve_csv, ndmin=2, delimiter=',', skiprows=1)
  10. # 选取至多前五次进化的结果
  11. n = min(5, len(x)) # number of previous results to consider
  12. # fitness()为x前四项加权 [P, R, mAP@0.5, mAP@0.5:0.95]
  13. # np.argsort只能从小到大排序, 添加负号实现从大到小排序, 算是排序的一个代码技巧
  14. x = x[np.argsort(-fitness(x))][:n] # top n mutations
  15. # 根据(mp, mr, map50, map)的加权和来作为权重计算hyp权重
  16. w = fitness(x) - fitness(x).min() + 1E-6 # weights (sum > 0)
  17. # 根据不同进化方式获得base hyp
  18. if parent == 'single' or len(x) == 1:
  19. # 根据权重的几率随机挑选适应度历史前5的其中一个
  20. # x = x[random.randint(0, n - 1)] # random selection
  21. x = x[random.choices(range(n), weights=w)[0]] # weighted selection
  22. elif parent == 'weighted':
  23. # 对hyp乘上对应的权重融合层一个hpy, 再取平均(除以权重和)
  24. x = (x * w.reshape(n, 1)).sum(0) / w.sum() # weighted combination
  25. # Mutate 突变(超参数进化)
  26. mp, s = 0.8, 0.2 # mutation probability, sigma:突变概率
  27. npr = np.random
  28. # 根据时间设置随机数种子
  29. npr.seed(int(time.time()))
  30. # 获取突变初始值, 也就是meta三个值的第一个数据
  31. # 三个数值分别对应着: 变异初始概率, 最低限值, 最大限值(mutation scale 0-1, lower_limit, upper_limit)
  32. g = np.array([meta[k][0] for k in hyp.keys()]) # gains 0-1
  33. ng = len(meta)
  34. # 确保至少其中有一个超参变异了
  35. v = np.ones(ng)
  36. # 设置突变
  37. while all(v == 1): # mutate until a change occurs (prevent duplicates)
  38. v = (g * (npr.random(ng) < mp) * npr.randn(ng) * npr.random() * s + 1).clip(0.3, 3.0)
  39. # 将突变添加到base hyp上
  40. for i, k in enumerate(hyp.keys()): # plt.hist(v.ravel(), 300)
  41. hyp[k] = float(x[i + 7] * v[i]) # mutate
  42. # Constrain to limits 限制hyp在规定范围内
  43. for k, v in meta.items():
  44. # 这里的hyp是超参数配置文件对象
  45. # 而这里的k和v是在元超参数中遍历出来的
  46. # hyp的v是一个数,而元超参数的v是一个元组
  47. hyp[k] = max(hyp[k], v[1]) # 先限定最小值,选择二者之间的大值 ,这一步是为了防止hyp中的值过小
  48. hyp[k] = min(hyp[k], v[2]) # 再限定最大值,选择二者之间的小值
  49. hyp[k] = round(hyp[k], 5) # 四舍五入到小数点后五位
  50. # 最后的值应该是 hyp中的值与 meta的最大值之间的较小者
  51. # Train mutation 使用突变后的参超,测试其效果
  52. results = train(hyp.copy(), opt, device, callbacks)
  53. # Write mutation results
  54. # 将结果写入results,并将对应的hyp写到evolve.txt,evolve.txt中每一行为一次进化的结果
  55. # 每行前七个数字 (P, R, mAP, F1, test_losses(GIOU, obj, cls)) 之后为hyp
  56. # 保存hyp到yaml文件
  57. print_mutation(hyp.copy(), results, yaml_file, opt.bucket)
  58. # Plot results 将结果可视化 / 输出保存信息
  59. plot_evolve(evolve_csv)
  60. LOGGER.info(f'Hyperparameter evolution finished\n'
  61. f"Results saved to {colorstr('bold', save_dir)}\n"
  62. f'Use best hyperparameters example: $ python train.py --hyp {evolve_yaml}')

这段代码是开始超参数进化训练

超参数进化的步骤如下:

  • 1.若存在evolve.csv文件,读取文件中的训练数据,选择超参进化方式,结果最优的训练数据突变超参数
  • 2.限制超参进化参数hyp在规定范围内
  • 3.使用突变后的超参数进行训练,测试其效果
  • 4.训练结束后,将训练结果可视化,输出保存信息保存至evolution.csv,用于下一次的超参数突变。

原理:根据生物进化,优胜劣汰,适者生存的原则,每次迭代都会保存更优秀的结果,直至迭代结束。最后的结果即为最优的超参数

注意:使用超参数进化时要经过至少300次迭代,每次迭代都会经过一次完整的训练。因此超参数进化及其耗时,大家需要根据自己需求慎用。


🚀三、设置opt参数

  1. =============================================三、设置opt参数==================================================='''
  2. def parse_opt(known=False):
  3. parser = argparse.ArgumentParser()
  4. # 预训练权重文件
  5. parser.add_argument('--weights', type=str, default=ROOT / 'pretrained/yolov5s.pt', help='initial weights path')
  6. # 训练模型
  7. parser.add_argument('--cfg', type=str, default=ROOT / 'models/yolov5s.yaml', help='model.yaml path')
  8. # 训练路径,包括训练集,验证集,测试集的路径,类别总数等
  9. parser.add_argument('--data', type=str, default=ROOT / 'data/fire_data.yaml', help='dataset.yaml path')
  10. # hpy超参数设置文件(lr/sgd/mixup)./data/hyps/下面有5个超参数设置文件,每个文件的超参数初始值有细微区别,用户可以根据自己的需求选择其中一个
  11. parser.add_argument('--hyp', type=str, default=ROOT / 'data/hyps/hyp.scratch.yaml', help='hyperparameters path')
  12. # epochs: 训练轮次, 默认轮次为300次
  13. parser.add_argument('--epochs', type=int, default=300)
  14. # batchsize: 训练批次, 默认bs=16
  15. parser.add_argument('--batch-size', type=int, default=4, help='total batch size for all GPUs, -1 for autobatch')
  16. # imagesize: 设置图片大小, 默认640*640
  17. parser.add_argument('--imgsz', '--img', '--img-size', type=int, default=640, help='train, val image size (pixels)')
  18. # rect: 是否采用矩形训练,默认为False
  19. parser.add_argument('--rect', action='store_true', help='rectangular training')
  20. # resume: 是否接着上次的训练结果,继续训练
  21. # 矩形训练:将比例相近的图片放在一个batch(由于batch里面的图片shape是一样的)
  22. parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
  23. # nosave: 不保存模型 默认False(保存) 在./runs/exp*/train/weights/保存两个模型 一个是最后一次的模型 一个是最好的模型
  24. # best.pt/ last.pt 不建议运行代码添加 --nosave
  25. parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
  26. # noval: 最后进行测试, 设置了之后就是训练结束都测试一下, 不设置每轮都计算mAP, 建议不设置
  27. parser.add_argument('--noval', action='store_true', help='only validate final epoch')
  28. # noautoanchor: 不自动调整anchor, 默认False, 自动调整anchor
  29. parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
  30. # evolve: 参数进化, 遗传算法调参
  31. parser.add_argument('--evolve', type=int, nargs='?', const=300, help='evolve hyperparameters for x generations')
  32. # bucket: 谷歌优盘 / 一般用不到
  33. parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
  34. # cache: 是否提前缓存图片到内存,以加快训练速度,默认False
  35. parser.add_argument('--cache', type=str, nargs='?', const='ram', help='--cache images in "ram" (default) or "disk"')
  36. # mage-weights: 使用图片采样策略,默认不使用
  37. parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
  38. # device: 设备选择
  39. parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
  40. # parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
  41. # multi-scale 是否进行多尺度训练
  42. parser.add_argument('--multi-scale', default=True, help='vary img-size +/- 50%%')
  43. # single-cls: 数据集是否多类/默认True
  44. parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
  45. # optimizer: 优化器选择 / 提供了三种优化器
  46. parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
  47. # sync-bn: 是否使用跨卡同步BN,在DDP模式使用
  48. parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
  49. # dataloader的最大worker数量 (使用多线程加载图片)
  50. parser.add_argument('--workers', type=int, default=0, help='max dataloader workers (per RANK in DDP mode)')
  51. # 训练结果的保存路径
  52. parser.add_argument('--project', default=ROOT / 'runs/train', help='save to project/name')
  53. # 训练结果的文件名称
  54. parser.add_argument('--name', default='exp', help='save to project/name')
  55. # 项目位置是否存在 / 默认是都不存在
  56. parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
  57. # 四元数据加载器: 允许在较低 --img 尺寸下进行更高 --img 尺寸训练的一些好处。
  58. parser.add_argument('--quad', action='store_true', help='quad dataloader')
  59. # cos-lr: 余弦学习率
  60. parser.add_argument('--linear-lr', action='store_true', help='linear LR')
  61. # 标签平滑 / 默认不增强, 用户可以根据自己标签的实际情况设置这个参数,建议设置小一点 0.1 / 0.05
  62. parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')
  63. # 早停止耐心次数 / 100次不更新就停止训练
  64. parser.add_argument('--patience', type=int, default=100, help='EarlyStopping patience (epochs without improvement)')
  65. # --freeze冻结训练 可以设置 default = [0] 数据量大的情况下,建议不设置这个参数
  66. parser.add_argument('--freeze', type=int, default=0, help='Number of layers to freeze. backbone=10, all=24')
  67. # --save-period 多少个epoch保存一下checkpoint
  68. parser.add_argument('--save-period', type=int, default=-1, help='Save checkpoint every x epochs (disabled if < 1)')
  69. # --local_rank 进程编号 / 多卡使用
  70. parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
  71. # Weights & Biases arguments
  72. # 在线可视化工具,类似于tensorboard工具
  73. parser.add_argument('--entity', default=None, help='W&B: Entity')
  74. # upload_dataset: 是否上传dataset到wandb tabel(将数据集作为交互式 dsviz表 在浏览器中查看、查询、筛选和分析数据集) 默认False
  75. parser.add_argument('--upload_dataset', action='store_true', help='W&B: Upload dataset as artifact table')
  76. # bbox_interval: 设置界框图像记录间隔 Set bounding-box image logging interval for W&B 默认-1 opt.epochs // 10
  77. parser.add_argument('--bbox_interval', type=int, default=-1, help='W&B: Set bounding-box image logging interval')
  78. # 使用数据的版本
  79. parser.add_argument('--artifact_alias', type=str, default='latest', help='W&B: Version of dataset artifact to use')
  80. # 作用就是当仅获取到基本设置时,如果运行命令中传入了之后才会获取到的其他配置,不会报错;而是将多出来的部分保存起来,留到后面使用
  81. opt = parser.parse_known_args()[0] if known else parser.parse_args()
  82. return opt

opt参数解析:

  • **cfg: ** 模型配置文件,网络结构
  • data: 数据集配置文件,数据集路径,类名等
  • **hyp: ** 超参数文件
  • epochs: 训练总轮次
  • **batch-size: ** 批次大小
  • **img-size: ** 输入图片分辨率大小
  • **rect: ** 是否采用矩形训练,默认False
  • resume: 接着打断训练上次的结果接着训练
  • **nosave: ** 不保存模型,默认False
  • **notest: ** 不进行test,默认False
  • noautoanchor: 不自动调整anchor,默认False
  • **evolve: ** 是否进行超参数进化,默认False
  • **bucket: ** 谷歌云盘bucket,一般不会用到
  • **cache-images: ** 是否提前缓存图片到内存,以加快训练速度,默认False
  • **weights: ** 加载的权重文件
  • **name: ** 数据集名字,如果设置:results.txt to results_name.txt,默认无
  • **device: ** 训练的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)
  • **multi-scale: ** 是否进行多尺度训练,默认False
  • **single-cls: ** 数据集是否只有一个类别,默认False
  • **adam: ** 是否使用adam优化器
  • **sync-bn: ** 是否使用跨卡同步BN,在DDP模式使用
  • **local_rank: ** gpu编号
  • **logdir: ** 存放日志的目录
  • workers: dataloader的最大worker数量

(关于调参,推荐大家看@迪菲赫尔曼大佬的这篇文章:手把手带你调参YOLOv5 (v5.0-v7.0)(训练))


🚀四、执行train()函数

4.1 加载参数和初始化配置信息

4.1.1 载入参数

  1. ''' =====================1.载入参数和初始化配置信息========================== '''
  2. '''
  3. 1.1 载入参数
  4. '''
  5. def train(hyp, # 超参数 可以是超参数配置文件的路径或超参数字典 path/to/hyp.yaml or hyp
  6. opt, # main中opt参数
  7. device, # 当前设备
  8. callbacks # 用于存储Loggers日志记录器中的函数,方便在每个训练阶段控制日志的记录情况
  9. ):
  10. # 从opt获取参数。日志保存路径,轮次、批次、权重、进程序号(主要用于分布式训练)等
  11. save_dir, epochs, batch_size, weights, single_cls, evolve, data, cfg, resume, noval, nosave, workers, freeze, = \
  12. Path(opt.save_dir), opt.epochs, opt.batch_size, opt.weights, opt.single_cls, opt.evolve, opt.data, opt.cfg, \
  13. opt.resume, opt.noval, opt.nosave, opt.workers, opt.freeze

这段代码是接收传来的参数

  • hyp: 超参数,不使用超参数进化的前提下也可以从opt中获取
  • opt: 全部的命令行参数
  • device: 指的是装载程序的设备
  • callbacks: 指的是训练过程中产生的一些参数

4.1.2 创建训练权重目录和保存路径

  1. '''
  2. 1.2 创建训练权重目录,设置模型、txt等保存的路径
  3. '''
  4. # Directories 获取记录训练日志的保存路径
  5. # 设置保存权重路径 如runs/train/exp1/weights
  6. w = save_dir / 'weights' # weights dir
  7. # 新建文件夹 weights train evolve
  8. (w.parent if evolve else w).mkdir(parents=True, exist_ok=True) # make dir
  9. # 保存训练结果的目录,如last.pt和best.pt
  10. last, best = w / 'last.pt', w / 'best.pt'

这段代码主要是创建权重文件保存路径,权重名字和训练日志txt文件

每次训练结束后,系统会产生两个模型,一个是last.pt,一个是best.pt。顾名思义,last.pt即为训练最后一轮产生的模型,而best.pt是训练过程中,效果最好的模型。

然后创建文件夹,保存训练结果的模型文件路径 以及验证集输出结果的txt文件路径,包含迭代的次数,占用显存大小,图片尺寸,精确率,召回率,位置损失,类别损失,置信度损失和map等。


4.1.3 读取超参数配置文件

  1. '''
  2. 1.3 读取hyp(超参数)配置文件
  3. '''
  4. # Hyperparameters 加载超参数
  5. if isinstance(hyp, str): # isinstance()是否是已知类型。 判断hyp是字典还是字符串
  6. # 若hyp是字符串,即认定为路径,则加载超参数为字典
  7. with open(hyp, errors='ignore') as f:
  8. # 加载yaml文件
  9. hyp = yaml.safe_load(f) # load hyps dict 加载超参信息
  10. # 打印超参数 彩色字体
  11. LOGGER.info(colorstr('hyperparameters: ') + ', '.join(f'{k}={v}' for k, v in hyp.items()))

这段代码主要是加载****一些训练过程中需要使用的超参数,并打印出来

首先,检查超参数是字典还是字符串,若为字符串,则认定为.yaml文件路径,再将yaml文件加载为字典。这里导致超参数的数据类型不同的原因是,超参数进化时,传入train()函数的超参数即为字典。而从命令行参数中读取的则为文件路径。

然后将打印这些超参数。


4.1.4 设置参数的保存路径

  1. '''
  2. 1.4 设置参数的保存路径
  3. '''
  4. # Save run settings 保存训练中的参数hyp和opt
  5. with open(save_dir / 'hyp.yaml', 'w') as f:
  6. # 保存超参数为yaml配置文件
  7. yaml.safe_dump(hyp, f, sort_keys=False)
  8. with open(save_dir / 'opt.yaml', 'w') as f:
  9. # 保存命令行参数为yaml配置文件
  10. yaml.safe_dump(vars(opt), f, sort_keys=False)
  11. # 定义数据集字典
  12. data_dict = None

这段代码主要是**将训练的相关参数全部写入 **

将本次运行的超参数(hyp)选项操作(opt)给保存成yaml格式,保存在了每次训练得到的exp文件中,这两个yaml显示了我们本次训练所选择的hyp超参数和opt参数。

还有一点,yaml.safe_load(f)是加载yaml的标准函数接口,保存超参数为yaml配置文件。 yaml.safe_dump()是将yaml文件序列化,保存命令行参数为yaml配置文件。

  1. vars(opt)

的作用是把数据类型是Namespace的数据转换为字典的形式。


4.1.5 加载日志信息

  1. '''
  2. 1.5 加载相关日志功能:如tensorboard,logger,wandb
  3. '''
  4. # Loggers 设置wandb和tb两种日志, wandb和tensorboard都是模型信息,指标可视化工具
  5. if RANK in [-1, 0]: # 如果进程编号为-1或0
  6. # 初始化日志记录器实例
  7. loggers = Loggers(save_dir, weights, opt, hyp, LOGGER) # loggers instance
  8. # W&B # wandb为可视化参数工具
  9. if loggers.wandb:
  10. data_dict = loggers.wandb.data_dict
  11. # 如果使用中断训练 再读取一次参数
  12. if resume:
  13. weights, epochs, hyp = opt.weights, opt.epochs, opt.hyp
  14. # Register actions
  15. for k in methods(loggers):
  16. # 将日志记录器中的方法与字符串进行绑定
  17. callbacks.register_action(k, callback=getattr(loggers, k))

这段代码主要是**打印日志信息(logger + wandb) **

首先设置wandb和tb两种日志,并开始初始化日志记录器实例。

然后将日志记录器中的函数记录到callbacks,方便在训练的不同阶段,利用callbacks.run()函数对日志的记录做统一处理。

在日志文件中,基于wandb与tensorboard这两个库来完成训练过程中的可视化操作。在这个文件中完成对于程序训练日志的记录过程。


4.1.6 加载其它参数

  1. '''
  2. 1.6 配置:画图开关,cuda,种子,读取数据集相关的yaml文件
  3. '''
  4. # Config 画图
  5. # 是否绘制训练、测试图片、指标图等,使用进化算法则不绘制
  6. plots = not evolve # create plots
  7. cuda = device.type != 'cpu'
  8. # 设置随机种子
  9. init_seeds(1 + RANK)
  10. # 加载数据配置信息
  11. with torch_distributed_zero_first(LOCAL_RANK): # torch_distributed_zero_first 同步所有进程
  12. data_dict = data_dict or check_dataset(data) # check if None check_dataset 检查数据集,如果没找到数据集则下载数据集(仅适用于项目中自带的yaml文件数据集)
  13. # 获取训练集、测试集图片路径
  14. train_path, val_path = data_dict['train'], data_dict['val']
  15. # nc:数据集有多少种类别
  16. nc = 1 if single_cls else int(data_dict['nc']) # number of classes
  17. # names: 数据集所有类别的名字,如果设置了single_cls则为一类
  18. names = ['item'] if single_cls and len(data_dict['names']) != 1 else data_dict['names'] # class names
  19. # 判断类别长度和文件是否对应
  20. assert len(names) == nc, f'{len(names)} names found for nc={nc} dataset in {data}' # check
  21. # 当前数据集是否是coco数据集(80个类别)
  22. is_coco = isinstance(val_path, str) and val_path.endswith('coco/val2017.txt') # COCO dataset

这段代码主要作用是做一些变量的配置

首先根据plots的true或者false来判断是否将训练过程及结果给画出来,紧接着判断电脑是否支持cuda

然后设置随机种子,下一行的torch_distributed_zero_first(LOCAL_RANK)与分布式训练相关的,如果不进行分布式训练则不执行,利用check_dataset会进行数据集检查读取操作,获取训练集和测试集图片路径。

接着利用nc获取数据集的种类,names会进行类的种数以及类的名称是否相同的判断,不相同会进行报错处理,然后保存类别数量以及类别名,并完成检查。

最后会进行是否是coco数据集进行判断,如果是的话会进行一些额外的操作,如果不是,则输出false。

4.1 加载参数和初始化配置信息小结:

解析各种yaml的参数+创建训练权重目录和保存路径+ 读取超参数配置文件 + 设置保存参数保存路径 + 加载数据配置信息 + 加载日志信息(logger + wandb) + 加载其他参数(plots、cuda、nc、names、is_coco)


4.2 加载网络模型

4.2.1 加载预训练模型

  1. ''' =====================2.model:加载网络模型========================== '''
  2. # Model 载入模型
  3. # 检查文件后缀是否是.pt
  4. check_suffix(weights, '.pt') # check weights
  5. # 加载预训练权重 yolov5提供了5个不同的预训练权重,可以根据自己的模型选择预训练权重
  6. pretrained = weights.endswith('.pt')
  7. '''
  8. 2.1预训练模型加载
  9. '''
  10. if pretrained:
  11. # 使用预训练的话:
  12. # torch_distributed_zero_first(RANK): 用于同步不同进程对数据读取的上下文管理器
  13. with torch_distributed_zero_first(LOCAL_RANK):
  14. # 如果本地不存在就从google云盘中自动下载模型
  15. # 通常会下载失败,建议提前下载下来放进weights目录
  16. weights = attempt_download(weights) # download if not found locally
  17. # ============加载模型以及参数================= #
  18. ckpt = torch.load(weights, map_location=device) # load checkpoint
  19. """
  20. 两种加载模型的方式: opt.cfg / ckpt['model'].yaml
  21. 这两种方式的区别:区别在于是否是使用resume
  22. 如果使用resume-断点训练:
  23. 将opt.cfg设为空,选择ckpt['model']yaml创建模型, 且不加载anchor。
  24. 这也影响了下面是否除去anchor的key(也就是不加载anchor), 如果resume则不加载anchor
  25. 原因:
  26. 使用断点训练时,保存的模型会保存anchor,所以不需要加载,
  27. 主要是预训练权重里面保存了默认coco数据集对应的anchor,
  28. 如果用户自定义了anchor,再加载预训练权重进行训练,会覆盖掉用户自定义的anchor。
  29. """
  30. # ***加载模型*** #
  31. model = Model(cfg or ckpt['model'].yaml, ch=3, nc=nc, anchors=hyp.get('anchors')).to(device) # create
  32. # ***以下三行是获得anchor*** #
  33. # 若cfg 或 hyp.get('anchors')不为空且不使用中断训练 exclude=['anchor'] 否则 exclude=[]
  34. exclude = ['anchor'] if (cfg or hyp.get('anchors')) and not resume else [] # exclude keys
  35. # 将预训练模型中的所有参数保存下来,赋值给csd
  36. csd = ckpt['model'].float().state_dict() # checkpoint state_dict as FP32
  37. # 判断预训练参数和新创建的模型参数有多少是相同的
  38. # 筛选字典中的键值对,把exclude删除
  39. csd = intersect_dicts(csd, model.state_dict(), exclude=exclude) # intersect
  40. # ***模型创建*** #
  41. model.load_state_dict(csd, strict=False) # load
  42. # 显示加载预训练权重的的键值对和创建模型的键值对
  43. # 如果pretrained为ture 则会少加载两个键对(anchors, anchor_grid)
  44. LOGGER.info(f'Transferred {len(csd)}/{len(model.state_dict())} items from {weights}') # report
  45. else:
  46. # #直接加载模型,ch为输入图片通道
  47. model = Model(cfg, ch=3, nc=nc, anchors=hyp.get('anchors')).to(device) # create

这段代码主要是加载模型,分为使用预训练权重参数文件与不使用预训练权重参数文件。

首先会去检测传进来的权重参数后缀名是否以.pt结尾,分两类:

  • 如果传入权重文件,直接model.load_state_dict加载模型
  • 如果没有传入权重文件,就回去会尝试去yolov5官方仓库去下载权重文件,加载权重文件,紧接着会根据你的权重文件中会带着一个yolov5s.yaml文件,代码根据yolov5s.yaml进行模型的训练。(通俗的理解就是我们预训练模型是yolov5s.pt,我们的新模型是基于我们自己的识别检测需求在yolov5s的基础上完成的。

最后,获取的train_path和test_path分别表示在data.yaml中训练数据集和测试数据集的地址。

这里使用预训练权重参数,是类似于迁移学习

预训练的模型是检测coco数据集的模型,数据集中有80个类别,而自己的训练集类别以及类别的数量,并不与coco数据集相同。所以要先加载一个新的模型,把预训练的参数加载至模型作为初始参数,再把识别的类别改成自己的数据集要识别的类别。接下来将预训练参数中与新模型中相同的参数加载至模型。


4.2.2 设置冻结层

  1. '''
  2. 2.2 冻结层
  3. '''
  4. # Freeze 冻结训练的网络层
  5. """
  6. 冻结模型层,设置冻结层名字即可
  7. 作用:冰冻一些层,就使得这些层在反向传播的时候不再更新权重,需要冻结的层,可以写在freeze列表中
  8. freeze为命令行参数,默认为0,表示不冻结
  9. """
  10. freeze = [f'model.{x}.' for x in range(freeze)] # layers to freeze
  11. # 首先遍历所有层
  12. for k, v in model.named_parameters():
  13. # 为所有层的参数设置梯度
  14. v.requires_grad = True # train all layers
  15. # 判断是否需要冻结
  16. if any(x in k for x in freeze):
  17. LOGGER.info(f'freezing {k}')
  18. # 冻结训练的层梯度不更新
  19. v.requires_grad = False
  20. # Image size 设置训练和测试图片尺寸
  21. # 获取模型总步长和模型输入图片分辨率
  22. gs = max(int(model.stride.max()), 32) # grid size (max stride)
  23. # 检查输入图片分辨率是否能被32整除
  24. imgsz = check_img_size(opt.imgsz, gs, floor=gs * 2) # verify imgsz is gs-multiple
  25. # Batch size 设置一次训练所选取的样本数
  26. if RANK == -1 and batch_size == -1: # single-GPU only, estimate best batch size
  27. # 确保batch size满足要求
  28. batch_size = check_train_batch_size(model, imgsz)

这段代码是设置冻结层的,即将模型的部分权重冻结,在模型训练过程中不会变化,只训练冻结层以为的权重参数

冻结层的原理是通过设置每个层参数中的requires_grad属性实现的。

  • 若require_grad为True,在反向传播时就会求出此tensor的梯度
  • 若require_grad为False,则不会求该tensor的梯度。冻结就是通过对某些层不求梯度实现的。默认不进行参数冻结

通过Freeze这部分代码,我们可以手动去控制想冻结哪些层。但是作者这里列出来这部分代码的目的其实并不是鼓励使用冻结指定层,因为作者认为这样效果其实并不是很好。


4.2.3 设置优化器

  1. '''
  2. 2.3 优化器设置
  3. '''
  4. # Optimizer 优化器
  5. nbs = 64 # nominal batch size
  6. """
  7. nbs = 64
  8. batchsize = 16
  9. accumulate = 64 / 16 = 4
  10. 模型梯度累计accumulate次之后就更新一次模型 相当于使用更大batch_size
  11. """
  12. accumulate = max(round(nbs / batch_size), 1) # accumulate loss before optimizing
  13. # 根据accumulate设置权重衰减参数,防止过拟合
  14. hyp['weight_decay'] *= batch_size * accumulate / nbs # scale weight_decay
  15. # 打印缩放后的权重衰减超参数
  16. LOGGER.info(f"Scaled weight_decay = {hyp['weight_decay']}")

这段代码是**参数设置(nbs、accumulate、hyp[‘weight_decay’]) **

nbs指的是nominal batch size,名义上的batch_size。这里的nbs跟命令行参数中的batch_size不同,命令行中的batch_size默认为16,nbs设置为64。

accumulate 为累计次数,在这里 nbs/batch_size(64/16)计算出 opt.batch_size输入多少批才达到nbs的水平。简单来说,nbs为64,代表想要达到的batch_size,这里的数值是64;batch_size为opt.batch_size,这里的数值是16。64/16等于4,也就是opt.batch_size需要输入4批才能达到nbs,accumulate等于4。(round表示四舍五入取整数,而max表示accumulate不能低于1。)

当给模型喂了4批图片数据后,将四批图片数据得到的梯度值,做累积。当每累积到4批数据时,才会对参数做更新,这样就实现了与batch_size=64时相同的效果。

最后还要做权重参数的缩放,因为batch_size发生了变化,所有权重参数也要做相应的缩放。

  1. # 将模型分成三组(BN层的weight,卷积层的weights,biases)进行优化
  2. g0, g1, g2 = [], [], [] # optimizer parameter groups
  3. # 遍历网络中的所有层,每遍历完一层向更深的层遍历
  4. for v in model.modules():
  5. # hasattr: 测试指定的对象是否具有给定的属性,返回一个布尔值
  6. if hasattr(v, 'bias') and isinstance(v.bias, nn.Parameter): # bias
  7. # 将层的bias添加至g2
  8. g2.append(v.bias)
  9. # YOLO v5的模型架构中只有卷积层和BN层
  10. if isinstance(v, nn.BatchNorm2d): # weight (no decay)
  11. # 将BN层的权重添加至g0 未经过权重衰减
  12. g0.append(v.weight)
  13. elif hasattr(v, 'weight') and isinstance(v.weight, nn.Parameter): # weight (with decay)
  14. # 将层的weight添加至g1 经过了权重衰减
  15. # 这里指的是卷积层的weight
  16. g1.append(v.weight)

这段代码是**分组优化(g0、g1、g2) **

将模型的参数分为三组,g0表示归一化层中的所有权重参数,g1表示卷积层中所有的权重参数,g2表示所有的偏置参数。

**model.modules()**迭代遍历模型的所有子层,(后期改进为model.named_modules()不但返回模型的所有子层,还会返回这些层的名字。)

hasattr()函数来判断遍历的每个层对象是否拥有相对应的属性,将所有参数分成三类:weight、bn, bias。

  1. # 选用优化器,并设置g0(bn参数)组的优化方式
  2. if opt.adam:
  3. optimizer = Adam(g0, lr=hyp['lr0'], betas=(hyp['momentum'], 0.999)) # adjust beta1 to momentum
  4. else:
  5. optimizer = SGD(g0, lr=hyp['lr0'], momentum=hyp['momentum'], nesterov=True)
  6. # 将卷积层的参数添加至优化器 并做权重衰减
  7. # add_param_group()函数为添加一个参数组,同一个优化器可以更新很多个参数组,不同的参数组可以设置不同的超参数
  8. optimizer.add_param_group({'params': g1, 'weight_decay': hyp['weight_decay']}) # add g1 with weight_decay
  9. # 将所有的bias添加至优化器
  10. optimizer.add_param_group({'params': g2}) # add g2 (biases)
  11. # 打印优化信息
  12. LOGGER.info(f"{colorstr('optimizer:')} {type(optimizer).__name__} with parameter groups "
  13. f"{len(g0)} weight, {len(g1)} weight (no decay), {len(g2)} bias")
  14. # 在内存中删除g0 g1 g2 目的是节省空间
  15. del g0, g1, g2

这段代码是选择优化器,然后为三个优化器选择优化方式,最后删除变量

首先判断是否使用adam优化器,初始参数为批归一化层中的参数。如果不使用adam优化器,则直接使用SGD随机梯度下降。

然后将g1(卷积层中的权重参数),g2(偏置参数),添加进优化器。 add_param_group()函数可以为优化器中添加一个参数组。一个优化器可以更新多个参数组,不同的参数组可以使用不同的超参数。


4.2.4 设置学习率

  1. '''
  2. 2.4 学习率设置
  3. '''
  4. # Scheduler 设置学习率策略:两者可供选择,线性学习率和余弦退火学习率
  5. if opt.linear_lr:
  6. # 使用线性学习率
  7. lf = lambda x: (1 - x / (epochs - 1)) * (1.0 - hyp['lrf']) + hyp['lrf'] # linear
  8. else:
  9. # 使用余弦退火学习率
  10. lf = one_cycle(1, hyp['lrf'], epochs) # cosine 1->hyp['lrf']
  11. # 可视化 scheduler
  12. scheduler = lr_scheduler.LambdaLR(optimizer, lr_lambda=lf) # plot_lr_scheduler(optimizer, scheduler, epochs)

这段代码主要是设置学习率衰减方式

在训练过程中变更学习率可能会让训练效果更好,YOLOv5提供了两种学习率变化的策略:

  • 一种是linear_lr(线性学习率),是通过线性插值的方式调整学习率
  • 另一种则是One Cycle(余弦退火学习率),即周期性学习率调整中,周期被设置为1。在一周期策略中,最大学习率被设置为 LR Range test 中可以找到的最高值,最小学习率比最大学习率小几个数量级。这里默认one_cycle。

4.2.5 训练前最后准备

  1. '''
  2. 2.5 训练前最后准备
  3. '''
  4. # EMA 设置ema(指数移动平均),考虑历史值对参数的影响,目的是为了收敛的曲线更加平滑
  5. ema = ModelEMA(model) if RANK in [-1, 0] else None # 为模型创建EMA指数滑动平均,如果GPU进程数大于1,则不创建
  6. # Resume 断点续训
  7. # 断点续训其实就是把上次训练结束的模型作为预训练模型,并从中加载参数
  8. start_epoch, best_fitness = 0, 0.0
  9. if pretrained:# 如果有预训练
  10. # Optimizer 加载优化器与best_fitness
  11. if ckpt['optimizer'] is not None:
  12. # 将预训练模型中的参数加载进优化器
  13. optimizer.load_state_dict(ckpt['optimizer'])
  14. # best_fitness是以[0.0, 0.0, 0.1, 0.9]为系数并乘以[精确度, 召回率, mAP@0.5, mAP@0.5:0.95]再求和所得
  15. # 获取预训练模型中的最佳fitness,保存为best.pt
  16. best_fitness = ckpt['best_fitness']
  17. # EMA
  18. # 加载ema模型和updates参数,保持ema的平滑性,现在yolov5是ema和model都保存了
  19. if ema and ckpt.get('ema'):
  20. ema.ema.load_state_dict(ckpt['ema'].float().state_dict())
  21. ema.updates = ckpt['updates']
  22. # Epochs 加载训练的迭代次数
  23. start_epoch = ckpt['epoch'] + 1 # 从上次的epoch接着训练
  24. if resume:
  25. assert start_epoch > 0, f'{weights} training to {epochs} epochs is finished, nothing to resume.'
  26. """
  27. 如果新设置epochs小于加载的epoch,
  28. 则视新设置的epochs为需要再训练的轮次数而不再是总的轮次数
  29. """
  30. # 如果训练的轮数小于开始的轮数
  31. if epochs < start_epoch:
  32. # 打印日志恢复训练
  33. LOGGER.info(f"{weights} has been trained for {ckpt['epoch']} epochs. Fine-tuning for {epochs} more epochs.")
  34. # 计算新的轮数
  35. epochs += ckpt['epoch'] # finetune additional epochs
  36. # 将预训练的相关参数从内存中删除
  37. del ckpt, csd
  38. # DP mode 使用单机多卡模式训练,目前一般不使用
  39. # rank为进程编号。如果rank=-1且gpu数量>1则使用DataParallel单机多卡模式,效果并不好(分布不平均)
  40. # rank=-1且gpu数量=1时,不会进行分布式
  41. if cuda and RANK == -1 and torch.cuda.device_count() > 1:
  42. LOGGER.warning('WARNING: DP not recommended, use torch.distributed.run for best DDP Multi-GPU results.\n'
  43. 'See Multi-GPU Tutorial at https://github.com/ultralytics/yolov5/issues/475 to get started.')
  44. model = torch.nn.DataParallel(model)
  45. # SyncBatchNorm 多卡归一化
  46. if opt.sync_bn and cuda and RANK != -1:# 多卡训练,把不同卡的数据做个同步
  47. model = torch.nn.SyncBatchNorm.convert_sync_batchnorm(model).to(device)
  48. LOGGER.info('Using SyncBatchNorm()')

这段代码主要是训练前最后的准备工作(EMA +断点续训+ 迭代次数的加载 + DP +SyncBatchNorm)

EMA为指数加权平均或滑动平均。其将前面模型训练权重,偏差进行保存,在本次训练过程中,假设为第n次,将第一次到第n-1次以指数权重进行加和,再加上本次的结果,且越远离第n次,指数系数越大,其所占的比重越小。

断点续训。可以理解为把上次中断结束时的模型,作为新的预训练模型,然后从中获取上次训练时的参数,并恢复训练状态。

epoch迭代次数。1个epoch等于使用训练集中的全部样本训练一次,epoch的大小跟迭代次数有着密切的关系,通常在迭代次数处于2000-3000之间损失已经处于平稳。

DP mode。DataParallel单机多卡模式自动将数据切分 load 到相应 GPU,将模型复制到相应 GPU,进行正向传播计算梯度并汇总。值得注意的是,模型和数据都需要先导入进 GPU 中,DataParallel 的 module 才能对其进行处理,否则会报错。

SyncBatchNorm。SyncBatchNorm主要用于解决多卡归一化同步问题,每张卡单独计算均值,然后同步,得到全局均值。用全局均值计算每张卡的方差,然后同步即可得到全局方差,但两次会消耗时间挺长。

4.2 加载网络模型小结:

(1)载入模型:载入模型(预训练/不预训练) + 检查数据集 + 设置数据集路径参数(train_path、test_path) + 设置冻结层

(2)优化器:参数设置(nbs、accumulate、hyp[‘weight_decay’]) + 分组优化(pg0、pg1、pg2) + 选择优化器 + 为三个优化器选择优化方式 + 删除变量

(3)学习率:线性学习率 + one cycle学习率 + 实例化 scheduler + 画出学习率变化曲线

(4)训练前最后准备:EMA +断点续训+ 迭代次数的加载 + DP +SyncBatchNorm)


4.3 加载数据集

4.3.1 创建数据集

  1. ''' =====================3.加载训练数据集========================== '''
  2. '''
  3. 3.1 创建数据集
  4. '''
  5. # Trainloader 训练集数据加载
  6. train_loader, dataset = create_dataloader(train_path, imgsz, batch_size // WORLD_SIZE, gs, single_cls,
  7. hyp=hyp, augment=True, cache=opt.cache, rect=opt.rect, rank=LOCAL_RANK,
  8. workers=workers, image_weights=opt.image_weights, quad=opt.quad,
  9. prefix=colorstr('train: '), shuffle=True)
  10. '''
  11. 返回一个训练数据加载器,一个数据集对象:
  12. 训练数据加载器是一个可迭代的对象,可以通过for循环加载1个batch_size的数据
  13. 数据集对象包括数据集的一些参数,包括所有标签值、所有的训练数据路径、每张图片的尺寸等等
  14. '''
  15. # 标签编号最大值
  16. mlc = int(np.concatenate(dataset.labels, 0)[:, 0].max()) # max label class
  17. # 类别总数
  18. nb = len(train_loader) # number of batches
  19. # 如果小于类别数则表示有问题
  20. assert mlc < nc, f'Label class {mlc} exceeds nc={nc} in {data}. Possible class labels are 0-{nc - 1}'
  21. # Process 0 验证集数据集加载
  22. if RANK in [-1, 0]:# 加载验证集数据加载器
  23. val_loader = create_dataloader(val_path, imgsz, batch_size // WORLD_SIZE * 2, gs, single_cls,
  24. hyp=hyp, cache=None if noval else opt.cache, rect=True, rank=-1,
  25. workers=workers, pad=0.5,
  26. prefix=colorstr('val: '))[0]
  27. if not resume:# 没有使用resume
  28. # 统计dataset的label信息
  29. labels = np.concatenate(dataset.labels, 0)
  30. # c = torch.tensor(labels[:, 0]) # classes
  31. # cf = torch.bincount(c.long(), minlength=nc) + 1. # frequency
  32. # model._initialize_biases(cf.to(device))
  33. if plots:# plots画出标签信息
  34. plot_labels(labels, names, save_dir)

这段代码主要是创建训练用的数据集

首先,通过create_dataloader()函数得到两个对象。一个为train_loader,另一个为dataset。

  • train_loader为训练数据加载器,可以通过for循环遍历出每个batch的训练数据
  • dataset为数据集对象,包括所有训练图片的路径,所有标签,每张图片的大小,图片的配置,超参数等等

然后将所有样本的标签拼接到一起,统计后做可视化,同时获得所有样本的类别,根据上面的统计对所有样本的类别,中心点xy位置,长宽wh做可视化。


4.3.2 计算anchor

  1. '''
  2. 3.2 计算anchor
  3. '''
  4. # Anchors 计算默认锚框anchor与数据集标签框的高宽比
  5. if not opt.noautoanchor:
  6. check_anchors(dataset, model=model, thr=hyp['anchor_t'], imgsz=imgsz)
  7. '''
  8. 参数dataset代表的是训练集,hyp['anchor_t']是从配置文件hpy.scratch.yaml读取的超参数,anchor_t:4.0
  9. 当配置文件中的anchor计算bpr(best possible recall)小于0.98时才会重新计算anchor。
  10. best possible recall最大值1,如果bpr小于0.98,程序会根据数据集的label自动学习anchor的尺寸
  11. '''
  12. # 半进度
  13. model.half().float() # pre-reduce anchor precision
  14. # 在每个训练前例行程序结束时触发所有已注册的回调
  15. callbacks.run('on_pretrain_routine_end')
  16. # DDP mode 如果rank不等于-1,则使用DistributedDataParallel模式
  17. if cuda and RANK != -1:
  18. # local_rank为gpu编号,rank为进程,例如rank=3,local_rank=0 表示第 3 个进程内的第 1 块 GPU。
  19. model = DDP(model, device_ids=[LOCAL_RANK], output_device=LOCAL_RANK)

这段代码主要是计算默认锚点anchor与数据集标签框的长宽比值

check_anchors计算默认锚点anchor与数据集标签框的长宽比值,标签的长h宽w与anchor的长h_a宽w_a的比值, 即h/h_a, w/w_a都要在(1/hyp[‘anchor_t’], hyp[‘anchor_t’])是可以接受的,如果标签框满足上面条件的数量小于总数的99%,则根据k-mean算法聚类新的锚点anchor。

4.3 加载数据集小结:

加载训练集dataloader、dataset + 参数(mlc、nb) + 加载验证集testloader + 设置labels相关参数(labels、c) +plots可视化数据集labels信息+检查anchors(k-means + 遗传进化算法)+model半精度


4.4 训练过程

4.4.1 初始化训练需要的模型参数

  1. ''' =====================4.训练========================== '''
  2. '''
  3. 4.1 初始化训练需要的模型参数
  4. '''
  5. # Model attributes 根据自己数据集的类别数和网络FPN层数设置各个损失的系数
  6. nl = de_parallel(model).model[-1].nl # number of detection layers (to scale hyps)
  7. # box为预测框的损失
  8. hyp['box'] *= 3 / nl # scale to layers
  9. # cls为分类的损失
  10. hyp['cls'] *= nc / 80 * 3 / nl # scale to classes and layers
  11. # obj为置信度损失
  12. hyp['obj'] *= (imgsz / 640) ** 2 * 3 / nl # scale to image size and layers
  13. # 标签平滑
  14. hyp['label_smoothing'] = opt.label_smoothing
  15. # 设置模型的类别,然后将检测的类别个数保存到模型
  16. model.nc = nc # attach number of classes to model
  17. # 设置模型的超参数,然后将超参数保存到模型
  18. model.hyp = hyp # attach hyperparameters to model
  19. # 从训练的样本标签得到类别权重,然后将类别权重保存至模型
  20. model.class_weights = labels_to_class_weights(dataset.labels, nc).to(device) * nc # attach class weights
  21. # 获取类别的名字,然后将分类标签保存至模型
  22. model.names = names

这段代码主要是根据自己数据集的类别数设置分类损失的系数,位置损失的系数。设置类别数,超参数等操作

其中,

  • box:预测框的损失
  • cls: 分类的损失
  • obj: 置信度损失
  • **label_smoothing : **标签平滑

4.4.2 训练热身部分

  1. '''
  2. 4.2 训练热身部分
  3. '''
  4. # Start training
  5. t0 = time.time() # 获取当前时间
  6. # 获取热身训练的迭代次数
  7. nw = max(round(hyp['warmup_epochs'] * nb), 1000) # number of warmup iterations, max(3 epochs, 1k iterations)
  8. # nw = min(nw, (epochs - start_epoch) / 2 * nb) # limit warmup to < 1/2 of training
  9. last_opt_step = -1
  10. # 初始化 map和result
  11. maps = np.zeros(nc) # mAP per class
  12. results = (0, 0, 0, 0, 0, 0, 0) # P, R, mAP@.5, mAP@.5-.95, val_loss(box, obj, cls)
  13. # 设置学习率衰减所进行到的轮次,即使打断训练,使用resume接着训练也能正常衔接之前的训练进行学习率衰减
  14. scheduler.last_epoch = start_epoch - 1 # do not move
  15. # 设置amp混合精度训练 GradScaler + autocast
  16. scaler = amp.GradScaler(enabled=cuda)
  17. # 早停止,不更新结束训练
  18. stopper = EarlyStopping(patience=opt.patience)
  19. # 初始化损失函数
  20. compute_loss = ComputeLoss(model) # init loss class
  21. # 打印日志输出信息
  22. LOGGER.info(f'Image sizes {imgsz} train, {imgsz} val\n' # 打印训练和测试输入图片分辨率
  23. f'Using {train_loader.num_workers * WORLD_SIZE} dataloader workers\n' # 加载图片时调用的cpu进程数
  24. f"Logging results to {colorstr('bold', save_dir)}\n" # 日志目录
  25. f'Starting training for {epochs} epochs...') # 从哪个epoch开始训练

这段代码是训练前的热身准备,做一些参数的初始化

这里要提到两个点:

第一个是warmup。warmup是一种学习率的优化方法,最早出现在ResNet的论文中。简单来说,在模型刚开始训练时,使用较小的学习率开始摸索,经过几轮迭代后使用大的学习率加速收敛,在快接近目标时,再使用小学习率,避免错过目标。

第二个是早停机制。当训练一定的轮数后,如果模型效果未提升,就让模型提前停止训练。这里的默认轮数为100轮,判断模型的效果为fitness,fitness为0.1乘mAP@0.5加上0.9乘mAP@0.5:0.95。


4.4.3 开始训练

  1. '''
  2. 4.3 开始训练
  3. '''
  4. for epoch in range(start_epoch, epochs): # epoch ------------------------------------------------------------------
  5. '''
  6. 告诉模型现在是训练阶段 因为BN层、DropOut层、两阶段目标检测模型等
  7. 训练阶段阶段和预测阶段进行的运算是不同的,所以要将二者分开
  8. model.eval()指的是预测推断阶段
  9. '''
  10. model.train()
  11. # Update image weights (optional, single-GPU only) 更新图片的权重
  12. if opt.image_weights: # 获取图片采样的权重
  13. # 经过一轮训练,若哪一类的不精确度高,那么这个类就会被分配一个较高的权重,来增加它被采样的概率
  14. cw = model.class_weights.cpu().numpy() * (1 - maps) ** 2 / nc # class weights
  15. # 将计算出的权重换算到图片的维度,将类别的权重换算为图片的权重
  16. iw = labels_to_image_weights(dataset.labels, nc=nc, class_weights=cw) # image weights
  17. # 通过random.choices生成图片索引indices从而进行采样,这时图像会包含一些难识别的样本
  18. dataset.indices = random.choices(range(dataset.n), weights=iw, k=dataset.n) # rand weighted idx
  19. # Update mosaic border (optional)
  20. # b = int(random.uniform(0.25 * imgsz, 0.75 * imgsz + gs) // gs * gs)
  21. # dataset.mosaic_border = [b - imgsz, -b] # height, width borders
  22. # 初始化训练时打印的平均损失信息

这段代码主要是释放训练开始命令和更新权重

首先训练过程走起,通过model.train()函数告诉模型已经进入了训练阶段。因为有些层或模型在训练阶段与预测阶段进行的操作是不一样的,所以要通过model.train()函数用来声明,接下来是训练。

然后是更新图片的权重。训练时有些类的准确率可能比较难以识别,准确率并不会很高。在更新图片权重时就会把这些难以识别的类挑出来,并为这个类产生一些权重高的图片,以这种方式来增加识别率低的类别的数据量。提高准确率。

  1. mloss = torch.zeros(3, device=device) # mean losses
  2. # 分布式训练的设置
  3. # DDP模式打乱数据,并且dpp.sampler的随机采样数据是基于epoch+seed作为随机种子,每次epoch不同,随机种子不同
  4. if RANK != -1:
  5. train_loader.sampler.set_epoch(epoch)
  6. # 将训练数据迭代器做枚举,可以遍历出索引值
  7. pbar = enumerate(train_loader)
  8. # 训练参数的表头
  9. LOGGER.info(('\n' + '%10s' * 7) % ('Epoch', 'gpu_mem', 'box', 'obj', 'cls', 'labels', 'img_size'))
  10. if RANK in [-1, 0]:
  11. # 通过tqdm创建进度条,方便训练信息的展示
  12. pbar = tqdm(pbar, total=nb, ncols=NCOLS, bar_format='{l_bar}{bar:10}{r_bar}{bar:-10b}') # progress bar
  13. # 将优化器中的所有参数梯度设为0
  14. optimizer.zero_grad()

这段代码主要是分布式训练的设置,以及训练时控制台的显示

首先DDP模式打乱数据,并进行随机采样。

然后设置训练时控制台的显示。LOGGER.info是输出的表头, tqdm 显示进度条效果

最后将优化器中所有的参数梯度设为0

  1. for i, (imgs, targets, paths, _) in pbar: # batch -------------------------------------------------------------
  2. # ni: 计算当前迭代次数 iteration
  3. ni = i + nb * epoch # number integrated batches (since train start)
  4. # 将图片加载至设备 并做归一化
  5. imgs = imgs.to(device, non_blocking=True).float() / 255 # uint8 to float32, 0-255 to 0.0-1.0
  6. # Warmup 热身训练
  7. '''
  8. 热身训练(前nw次迭代),热身训练迭代的次数iteration范围[1:nw]
  9. 在前nw次迭代中, 根据以下方式选取accumulate和学习率
  10. '''
  11. if ni <= nw:
  12. xi = [0, nw] # x interp
  13. # compute_loss.gr = np.interp(ni, xi, [0.0, 1.0]) # iou loss ratio (obj_loss = 1.0 or iou)
  14. accumulate = max(1, np.interp(ni, xi, [1, nbs / batch_size]).round())
  15. # 遍历优化器中的所有参数组
  16. for j, x in enumerate(optimizer.param_groups):
  17. # bias lr falls from 0.1 to lr0, all other lrs rise from 0.0 to lr0
  18. """
  19. bias的学习率从0.1下降到基准学习率lr*lf(epoch),
  20. 其他的参数学习率从0增加到lr*lf(epoch).
  21. lf为上面设置的余弦退火的衰减函数
  22. """
  23. x['lr'] = np.interp(ni, xi, [hyp['warmup_bias_lr'] if j == 2 else 0.0, x['initial_lr'] * lf(epoch)])
  24. if 'momentum' in x:
  25. x['momentum'] = np.interp(ni, xi, [hyp['warmup_momentum'], hyp['momentum']])
  26. # Multi-scale 设置多尺度训练,从imgsz * 0.5, imgsz * 1.5 + gs随机选取尺寸
  27. # imgsz: 默认训练尺寸 gs: 模型最大stride=32 [32 16 8]
  28. if opt.multi_scale: # 随机改变图片的尺寸
  29. sz = random.randrange(imgsz * 0.5, imgsz * 1.5 + gs) // gs * gs # size
  30. sf = sz / max(imgs.shape[2:]) # scale factor
  31. if sf != 1:
  32. ns = [math.ceil(x * sf / gs) * gs for x in imgs.shape[2:]] # new shape (stretched to gs-multiple)
  33. # 下采样
  34. imgs = nn.functional.interpolate(imgs, size=ns, mode='bilinear', align_corners=False)

这段代码主要是分批加载数据和热身训练

首先分批加载训练数据,用ni计算当前迭代的次数,并作图片的归一化

然后进行热身训练(warmup),这里只对训练初期使用较小的学习率。对于bias参数组的学习率策略是从0.1逐渐降低至初始学习率,其余参数组则从0开始逐渐增长至初始学习率。

最后进行多尺度训练

  • imgz: 默认训练尺寸
  • gs: 模型最大stride=32
  1. # Forward 前向传播
  2. with amp.autocast(enabled=cuda):
  3. # 将图片送入网络得到一个预测结果
  4. pred = model(imgs) # forward
  5. # 计算损失,包括分类损失,objectness损失,框的回归损失
  6. # loss为总损失值,loss_items为一个元组,包含分类损失,objectness损失,框的回归损失和总损失
  7. loss, loss_items = compute_loss(pred, targets.to(device)) # loss scaled by batch_size
  8. if RANK != -1:
  9. # 采用DDP训练,平均不同gpu之间的梯度
  10. loss *= WORLD_SIZE # gradient averaged between devices in DDP mode
  11. if opt.quad:
  12. # 如果采用collate_fn4取出mosaic4数据loss也要翻4倍
  13. loss *= 4.
  14. # Backward 反向传播 scale为使用自动混合精度运算
  15. scaler.scale(loss).backward()
  16. # Optimize 模型会对多批数据进行累积,只有达到累计次数的时候才会更新参数,再还没有达到累积次数时 loss会不断的叠加 不会被新的反传替代
  17. if ni - last_opt_step >= accumulate:
  18. '''
  19. scaler.step()首先把梯度的值unscale回来,
  20. 如果梯度的值不是 infs 或者 NaNs, 那么调用optimizer.step()来更新权重,
  21. 否则,忽略step调用,从而保证权重不更新(不被破坏)
  22. '''
  23. scaler.step(optimizer) # optimizer.step 参数更新
  24. # 更新参数
  25. scaler.update()
  26. # 完成一次累积后,再将梯度清零,方便下一次清零
  27. optimizer.zero_grad()
  28. if ema:
  29. ema.update(model)
  30. # 计数
  31. last_opt_step = ni

这段代码主要是正向传播、反向传播、以及更新参数

首先正向传播即将图片输入模型,并做一次正向传播,最后得到一个结果。这个结果在训练初期的效果可能会比较差,将这个结果与图片的标签值求损失,目的就是让这个损失越来越小。

接下来将这个误差,通过链式求导法则,反向传播回每一层,求出每层的梯度

最后利用optimizer.step更新参数。但是要注意,在更新参数时这里有一个不一样的地方,并不会在每次反向传播时更新残数,而是做一定的累积,反向传播的结果并不会顶替上一次反向传播结果,而是做一个累积。完成一次积累后,再将梯度清零,方便下一次清零。这样做是为了以更小的batch_size实现更高的batch_size效果。

  1. # Log 打印Print一些信息 包括当前epoch、显存、损失(box、obj、cls、total)、当前batch的target的数量和图片的size等信息
  2. if RANK in [-1, 0]:
  3. # 打印显存,进行的轮次,损失,target的数量和图片的size等信息
  4. mloss = (mloss * i + loss_items) / (i + 1) # update mean losses
  5. # 计算显存
  6. mem = f'{torch.cuda.memory_reserved() / 1E9 if torch.cuda.is_available() else 0:.3g}G' # (GB)
  7. # 进度条显示以上信息
  8. pbar.set_description(('%10s' * 2 + '%10.4g' * 5) % (
  9. f'{epoch}/{epochs - 1}', mem, *mloss, targets.shape[0], imgs.shape[-1]))
  10. # 调用Loggers中的on_train_batch_end方法,将日志记录并生成一些记录的图片
  11. callbacks.run('on_train_batch_end', ni, model, imgs, targets, paths, plots, opt.sync_bn)
  12. # end batch ------------------------------------------------------------------------------------------------
  13. # Scheduler 进行学习率衰减
  14. lr = [x['lr'] for x in optimizer.param_groups] # for loggers
  15. # 根据前面设置的学习率更新策略更新学习率
  16. scheduler.step()

这段代码主要是打印训练相关信息,结束后做权重衰减

首先将每批最后的数据输出至控制台。到此每批循环体结束。

然后在每所有批训练结束时,做权重衰减,进入下一轮的训练。


4.4.4 训练完成保存模型

  1. '''
  2. 4.4 训练完成保存模型
  3. '''
  4. if RANK in [-1, 0]:
  5. # mAP
  6. callbacks.run('on_train_epoch_end', epoch=epoch)
  7. # 将model中的属性赋值给ema
  8. ema.update_attr(model, include=['yaml', 'nc', 'hyp', 'names', 'stride', 'class_weights'])
  9. # 判断当前epoch是否是最后一轮
  10. final_epoch = (epoch + 1 == epochs) or stopper.possible_stop
  11. # notest: 是否只测试最后一轮 True: 只测试最后一轮 False: 每轮训练完都测试mAP
  12. if not noval or final_epoch: # Calculate mAP
  13. """
  14. 测试使用的是ema(指数移动平均 对模型的参数做平均)的模型
  15. results: [1] Precision 所有类别的平均precision(最大f1时)
  16. [1] Recall 所有类别的平均recall
  17. [1] map@0.5 所有类别的平均mAP@0.5
  18. [1] map@0.5:0.95 所有类别的平均mAP@0.5:0.95
  19. [1] box_loss 验证集回归损失, obj_loss 验证集置信度损失, cls_loss 验证集分类损失
  20. maps: [80] 所有类别的mAP@0.5:0.95
  21. """
  22. results, maps, _ = val.run(data_dict, # 数据集配置文件地址 包含数据集的路径、类别个数、类名、下载地址等信息
  23. batch_size=batch_size // WORLD_SIZE * 2, # 要保证batch_size能整除卡数
  24. imgsz=imgsz,
  25. model=ema.ema,
  26. single_cls=single_cls, # 是否是单类数据集
  27. dataloader=val_loader,
  28. save_dir=save_dir, # 保存地址 runs/train/expn
  29. plots=False, # 是否可视化
  30. callbacks=callbacks,
  31. compute_loss=compute_loss) # 损失函数(train)
  32. # Update best mAP 更新best_fitness
  33. # fi: [P, R, mAP@.5, mAP@.5-.95]的一个加权值 = 0.1*mAP@.5 + 0.9*mAP@.5-.95
  34. fi = fitness(np.array(results).reshape(1, -1)) # weighted combination of [P, R, mAP@.5, mAP@.5-.95]
  35. # 若当前的fitness大于最佳的fitness
  36. if fi > best_fitness:
  37. # 将最佳fitness更新为当前fitness
  38. best_fitness = fi
  39. # 保存验证结果
  40. log_vals = list(mloss) + list(results) + lr
  41. # 记录验证数据
  42. callbacks.run('on_fit_epoch_end', log_vals, epoch, best_fitness, fi)

这段代码主要是得到results, mAps相关信息** **

首先判断是否应当结束训练,若选择每轮验证或当前已是最后一轮的情况下,做一次验证。

然后计算出最好的模型。这里“最好”的评判标准即为fitness。fi: [P, R, mAP@.5, mAP@.5-.95]的一个加权值 = 0.1mAP@.5 + 0.9mAP@.5-.95,在评判标准中,更加强调mAP@0.5:0.95的作用。mAP@0.5:0.95大代表模型在多个IOU阈值的情况下,都可以较好的识别物体。

  1. # Save model 保存模型
  2. """
  3. 保存带checkpoint的模型用于inference或resuming training
  4. 保存模型, 还保存了epoch, results, optimizer等信息
  5. optimizer将不会在最后一轮完成后保存
  6. model保存的是EMA的模型
  7. """
  8. if (not nosave) or (final_epoch and not evolve): # if save
  9. # 将当前训练过程中的所有参数赋值给ckpt
  10. ckpt = {'epoch': epoch,
  11. 'best_fitness': best_fitness,
  12. 'model': deepcopy(de_parallel(model)).half(),
  13. 'ema': deepcopy(ema.ema).half(),
  14. 'updates': ema.updates,
  15. 'optimizer': optimizer.state_dict(),
  16. 'wandb_id': loggers.wandb.wandb_run.id if loggers.wandb else None,
  17. 'date': datetime.now().isoformat()}
  18. # Save last, best and delete 保存每轮的模型
  19. torch.save(ckpt, last)
  20. # 如果这个模型的fitness是最佳的
  21. if best_fitness == fi:
  22. # 保存这个最佳的模型
  23. torch.save(ckpt, best)
  24. if (epoch > 0) and (opt.save_period > 0) and (epoch % opt.save_period == 0):
  25. torch.save(ckpt, w / f'epoch{epoch}.pt')
  26. # 模型保存完毕 将变量从内存中删除
  27. del ckpt
  28. # 记录保存模型时的日志
  29. callbacks.run('on_model_save', last, epoch, final_epoch, best_fitness, fi)
  30. # Stop Single-GPU 停止单卡训练
  31. if RANK == -1 and stopper(epoch=epoch, fitness=fi):
  32. break
  33. # Stop DDP TODO: known issues shttps://github.com/ultralytics/yolov5/pull/4576
  34. # stop = stopper(epoch=epoch, fitness=fi)
  35. # if RANK == 0:
  36. # dist.broadcast_object_list([stop], 0) # broadcast 'stop' to all ranks
  37. # Stop DPP
  38. # with torch_distributed_zero_first(RANK):
  39. # if stop:
  40. # break # must break all DDP ranks
  41. # end epoch ----------------------------------------------------------------------------------------------------
  42. # end training -----------------------------------------------------------------------------------------------------

这段代码主要是保存模型

首先将当前训练过程中的所有参数赋值给ckpt。

然后判断这个模型的fitness是否是最佳,如果是,就保存这个最佳模型,保存完毕将变量从内存中删除。

至此,训练结束(哎呀妈呀,可算结束了)

4.4 训练过程小结:

(1)初始化训练需要的模型参数:设置/初始化一些训练要用的参数(hyp[‘box’]、hyp[‘cls’]、hyp[‘obj’]、hyp[‘label_smoothing’])+从训练样本标签得到类别权重model.class_weights、model.names。

(2)热身部分:热身迭代的次数iterationsnw、last_opt_step、初始化maps和results、学习率衰减所进行到的轮次scheduler.last_epoch + 设置amp混合精度训练scaler + 初始化损失函数compute_loss + 打印日志信息)

(3)开始训练:图片采样策略 + Warmup热身训练 + multi_scale多尺度训练 + amp混合精度训练 + accumulate 梯度更新策略+ 打印训练相关信息(包括当前epoch、显存、损失(box、obj、cls、total)+当前batch的target的数量和图片的size等 + 调整学习率、scheduler.step() 、emp val.run()得到results, maps相关信息

(4)训练完成保存模型:将测试结果results写入result.txt中、wandb_logger、Update best mAP 以加权mAP fitness为衡量标准+保存模型


4.5 打印信息并释放显存

  1. '''
  2. 4.5 打印信息并释放显存
  3. '''
  4. # 打印一些信息
  5. if RANK in [-1, 0]:
  6. # 训练停止 向控制台输出信息
  7. LOGGER.info(f'\n{epoch - start_epoch + 1} epochs completed in {(time.time() - t0) / 3600:.3f} hours.')
  8. # 可视化训练结果: results1.png confusion_matrix.png 以及('F1', 'PR', 'P', 'R')曲线变化 日志信息
  9. for f in last, best:
  10. if f.exists():
  11. # 模型训练完后, strip_optimizer函数将optimizer从ckpt中删除
  12. strip_optimizer(f) # strip optimizers
  13. if f is best:
  14. # 把最好的模型在验证集上跑一边 并绘图
  15. LOGGER.info(f'\nValidating {f}...')
  16. results, _, _ = val.run(data_dict,
  17. batch_size=batch_size // WORLD_SIZE * 2,
  18. imgsz=imgsz,
  19. model=attempt_load(f, device).half(),
  20. iou_thres=0.65 if is_coco else 0.60, # best pycocotools results at 0.65
  21. single_cls=single_cls,
  22. dataloader=val_loader,
  23. save_dir=save_dir,
  24. save_json=is_coco,
  25. verbose=True,
  26. plots=True,
  27. callbacks=callbacks,
  28. compute_loss=compute_loss) # val best model with plots
  29. if is_coco:# 如果是coco数据集
  30. callbacks.run('on_fit_epoch_end', list(mloss) + list(results) + lr, epoch, best_fitness, fi)
  31. # 记录训练终止时的日志
  32. callbacks.run('on_train_end', last, best, plots, epoch, results)
  33. LOGGER.info(f"Results saved to {colorstr('bold', save_dir)}")
  34. # 释放显存
  35. torch.cuda.empty_cache()
  36. return results

这段函数主要打印信息并释放显存

首先当训练停止的时候回向控制台输出信息(打印训练时间、plots可视化训练结果results1.png、confusion_matrix.png 以及(‘F1’, ‘PR’, ‘P’, ‘R’)曲线变化 、日志信息)

然后把最佳的模型取出,用这个最佳的模型跑一边验证集。再将结果保存下来,至此训练完成。若使用了超参数进化,还会进行多次训练,来完成超参数的调整

接着进行coco评价,也就是说只在coco数据集才会运行

最后释放显存

return results~


🚀五、执行run()函数

  1. '''===============================五、run()函数=========================================='''
  2. def run(**kwargs):
  3. # 执行这个脚本/ 调用train函数 / 开启训练
  4. # Usage: import train; train.run(data='coco128.yaml', imgsz=320, weights='yolov5m.pt')
  5. opt = parse_opt(True)
  6. for k, v in kwargs.items():
  7. # setattr() 赋值属性,属性不存在则创建一个赋值
  8. setattr(opt, k, v)
  9. main(opt)

这段代码主要是使得支持指令执行这个脚本

大家也可以看出来哈,run()函数内的内容与主函数差不多呢,都是调用了parse_opt()函数与main()函数(其实写到这时我以为我出现了幻觉),我去查了一下,run()函数是为导入时提供的,别的模块导入了train模块,即可通过调用run()函数执行训练过程。


🚀六、train.py代码全部注释

  1. # YOLOv5 🚀 by Ultralytics, GPL-3.0 license
  2. """
  3. Train a YOLOv5 model on a custom dataset
  4. 在数据集上训练 yolo v5 模型
  5. Usage:
  6. $ python path/to/train.py --data coco128.yaml --weights yolov5s.pt --img 640
  7. 训练数据为coco128 coco128数据集中有128张图片 80个类别,是规模较小的数据集
  8. """
  9. '''===============================================一、导入包==================================================='''
  10. '''======================1.导入安装好的python库====================='''
  11. import argparse # 解析命令行参数模块
  12. import math # 数学公式模块
  13. import os # 与操作系统进行交互的模块 包含文件路径操作和解析
  14. import random # 生成随机数模块
  15. import sys # sys系统模块 包含了与Python解释器和它的环境有关的函数
  16. import time # 时间模块 更底层
  17. from copy import deepcopy # 深度拷贝模块
  18. from datetime import datetime # datetime模块能以更方便的格式显示日期或对日期进行运算。
  19. from pathlib import Path # Path将str转换为Path对象 使字符串路径易于操作的模块
  20. import numpy as np # numpy数组操作模块
  21. import torch # 引入torch
  22. import torch.distributed as dist # 分布式训练模块
  23. import torch.nn as nn # 对torch.nn.functional的类的封装 有很多和torch.nn.functional相同的函数
  24. import yaml # yaml是一种直观的能够被电脑识别的的数据序列化格式,容易被人类阅读,并且容易和脚本语言交互。一般用于存储配置文件。
  25. from torch.cuda import amp # PyTorch amp自动混合精度训练模块
  26. from torch.nn.parallel import DistributedDataParallel as DDP # 多卡训练模块
  27. from torch.optim import SGD, Adam, lr_scheduler # tensorboard模块
  28. from tqdm import tqdm # 进度条模块
  29. '''===================2.获取当前文件的绝对路径========================'''
  30. FILE = Path(__file__).resolve() # __file__指的是当前文件(即train.py),FILE最终保存着当前文件的绝对路径,比如D://yolov5/train.py
  31. ROOT = FILE.parents[0] # YOLOv5 root directory ROOT保存着当前项目的父目录,比如 D://yolov5
  32. if str(ROOT) not in sys.path: # sys.path即当前python环境可以运行的路径,假如当前项目不在该路径中,就无法运行其中的模块,所以就需要加载路径
  33. sys.path.append(str(ROOT)) # add ROOT to PATH 把ROOT添加到运行路径上
  34. ROOT = Path(os.path.relpath(ROOT, Path.cwd())) # relative ROOT设置为相对路径
  35. '''===================3..加载自定义模块============================'''
  36. import val # for end-of-epoch mAP
  37. from models.experimental import attempt_load
  38. from models.yolo import Model
  39. from utils.autoanchor import check_anchors
  40. from utils.autobatch import check_train_batch_size
  41. from utils.callbacks import Callbacks
  42. from utils.datasets import create_dataloader
  43. from utils.downloads import attempt_download
  44. from utils.general import (LOGGER, NCOLS, check_dataset, check_file, check_git_status, check_img_size,
  45. check_requirements, check_suffix, check_yaml, colorstr, get_latest_run, increment_path,
  46. init_seeds, intersect_dicts, labels_to_class_weights, labels_to_image_weights, methods,
  47. one_cycle, print_args, print_mutation, strip_optimizer)
  48. from utils.loggers import Loggers
  49. from utils.loggers.wandb.wandb_utils import check_wandb_resume
  50. from utils.loss import ComputeLoss
  51. from utils.metrics import fitness
  52. from utils.plots import plot_evolve, plot_labels
  53. from utils.torch_utils import EarlyStopping, ModelEMA, de_parallel, select_device, torch_distributed_zero_first
  54. '''================4. 分布式训练初始化==========================='''
  55. # https://pytorch.org/docs/stable/elastic/run.html该网址有详细介绍
  56. LOCAL_RANK = int(os.getenv('LOCAL_RANK', -1)) # -本地序号。这个 Worker 是这台机器上的第几个 Worker
  57. RANK = int(os.getenv('RANK', -1)) # -进程序号。这个 Worker 是全局第几个 Worker
  58. WORLD_SIZE = int(os.getenv('WORLD_SIZE', 1)) # 总共有几个 Worker
  59. '''
  60. 查找名为LOCAL_RANK,RANK,WORLD_SIZE的环境变量,
  61. 若存在则返回环境变量的值,若不存在则返回第二个参数(-1,默认None)
  62. rank和local_rank的区别: 两者的区别在于前者用于进程间通讯,后者用于本地设备分配。
  63. '''
  64. '''===============================================二、train()函数:训练过程==================================================='''
  65. ''' =====================1.载入参数和初始化配置信息========================== '''
  66. def train(hyp, # 超参数 可以是超参数配置文件的路径或超参数字典 path/to/hyp.yaml or hyp
  67. opt, # main中opt参数
  68. device, # 当前设备
  69. callbacks # 用于存储Loggers日志记录器中的函数,方便在每个训练阶段控制日志的记录情况
  70. ):
  71. # 从opt获取参数。日志保存路径,轮次、批次、权重、进程序号(主要用于分布式训练)等
  72. save_dir, epochs, batch_size, weights, single_cls, evolve, data, cfg, resume, noval, nosave, workers, freeze, = \
  73. Path(opt.save_dir), opt.epochs, opt.batch_size, opt.weights, opt.single_cls, opt.evolve, opt.data, opt.cfg, \
  74. opt.resume, opt.noval, opt.nosave, opt.workers, opt.freeze
  75. '''
  76. 1.1创建目录,设置模型、txt等保存的路径
  77. '''
  78. # Directories 获取记录训练日志的保存路径
  79. # 设置保存权重路径 如runs/train/exp1/weights
  80. w = save_dir / 'weights' # weights dir
  81. # 新建文件夹 weights train evolve
  82. (w.parent if evolve else w).mkdir(parents=True, exist_ok=True) # make dir
  83. # 保存训练结果的目录,如last.pt和best.pt
  84. last, best = w / 'last.pt', w / 'best.pt'
  85. '''
  86. 1.2 读取hyp(超参数)配置文件
  87. '''
  88. # Hyperparameters 加载超参数
  89. if isinstance(hyp, str): # isinstance()是否是已知类型。 判断hyp是字典还是字符串
  90. # 若hyp是字符串,即认定为路径,则加载超参数为字典
  91. with open(hyp, errors='ignore') as f:
  92. # 加载yaml文件
  93. hyp = yaml.safe_load(f) # load hyps dict 加载超参信息
  94. # 打印超参数 彩色字体
  95. LOGGER.info(colorstr('hyperparameters: ') + ', '.join(f'{k}={v}' for k, v in hyp.items()))
  96. '''
  97. 1.3 将本次运行的超参数(hyp),和选项操作(opt)给保存成yaml格式,
  98. 保存在了每次训练得到的exp文件中,这两个yaml显示了我们本次训练所选择的超参数和opt参数,opt参数是train代码下面那一堆参数选择
  99. '''
  100. # Save run settings 保存训练中的参数hyp和opt
  101. with open(save_dir / 'hyp.yaml', 'w') as f:
  102. # 保存超参数为yaml配置文件
  103. yaml.safe_dump(hyp, f, sort_keys=False)
  104. with open(save_dir / 'opt.yaml', 'w') as f:
  105. # 保存命令行参数为yaml配置文件
  106. yaml.safe_dump(vars(opt), f, sort_keys=False)
  107. # 定义数据集字典
  108. data_dict = None
  109. '''
  110. 1.4 加载相关日志功能:如tensorboard,logger,wandb
  111. '''
  112. # Loggers 设置wandb和tb两种日志, wandb和tensorboard都是模型信息,指标可视化工具
  113. if RANK in [-1, 0]: # 如果进程编号为-1或0
  114. # 初始化日志记录器实例
  115. loggers = Loggers(save_dir, weights, opt, hyp, LOGGER) # loggers instance
  116. # W&B # wandb为可视化参数工具
  117. if loggers.wandb:
  118. data_dict = loggers.wandb.data_dict
  119. # 如果使用中断训练 再读取一次参数
  120. if resume:
  121. weights, epochs, hyp = opt.weights, opt.epochs, opt.hyp
  122. # Register actions
  123. for k in methods(loggers):
  124. # 将日志记录器中的方法与字符串进行绑定
  125. callbacks.register_action(k, callback=getattr(loggers, k))
  126. '''
  127. 1.5 配置:画图开关,cuda,种子,读取数据集相关的yaml文件
  128. '''
  129. # Config 画图
  130. # 是否绘制训练、测试图片、指标图等,使用进化算法则不绘制
  131. plots = not evolve # create plots
  132. cuda = device.type != 'cpu'
  133. # 设置随机种子
  134. init_seeds(1 + RANK)
  135. # 加载数据配置信息
  136. with torch_distributed_zero_first(LOCAL_RANK): # torch_distributed_zero_first 同步所有进程
  137. data_dict = data_dict or check_dataset(data) # check if None check_dataset 检查数据集,如果没找到数据集则下载数据集(仅适用于项目中自带的yaml文件数据集)
  138. # 获取训练集、测试集图片路径
  139. train_path, val_path = data_dict['train'], data_dict['val']
  140. # nc:数据集有多少种类别
  141. nc = 1 if single_cls else int(data_dict['nc']) # number of classes
  142. # names: 数据集所有类别的名字,如果设置了single_cls则为一类
  143. names = ['item'] if single_cls and len(data_dict['names']) != 1 else data_dict['names'] # class names
  144. # 判断类别长度和文件是否对应
  145. assert len(names) == nc, f'{len(names)} names found for nc={nc} dataset in {data}' # check
  146. # 当前数据集是否是coco数据集(80个类别)
  147. is_coco = isinstance(val_path, str) and val_path.endswith('coco/val2017.txt') # COCO dataset
  148. ''' =====================2.model:加载网络模型========================== '''
  149. # Model 载入模型
  150. # 检查文件后缀是否是.pt
  151. check_suffix(weights, '.pt') # check weights
  152. # 加载预训练权重 yolov5提供了5个不同的预训练权重,可以根据自己的模型选择预训练权重
  153. pretrained = weights.endswith('.pt')
  154. '''
  155. 2.1预训练模型加载
  156. '''
  157. if pretrained:
  158. # 使用预训练的话:
  159. # torch_distributed_zero_first(RANK): 用于同步不同进程对数据读取的上下文管理器
  160. with torch_distributed_zero_first(LOCAL_RANK):
  161. # 如果本地不存在就从google云盘中自动下载模型
  162. # 通常会下载失败,建议提前下载下来放进weights目录
  163. weights = attempt_download(weights) # download if not found locally
  164. # ============加载模型以及参数================= #
  165. ckpt = torch.load(weights, map_location=device) # load checkpoint
  166. """
  167. 两种加载模型的方式: opt.cfg / ckpt['model'].yaml
  168. 这两种方式的区别:区别在于是否是使用resume
  169. 如果使用resume-断点训练:
  170. 将opt.cfg设为空,选择ckpt['model']yaml创建模型, 且不加载anchor。
  171. 这也影响了下面是否除去anchor的key(也就是不加载anchor), 如果resume则不加载anchor
  172. 原因:
  173. 使用断点训练时,保存的模型会保存anchor,所以不需要加载,
  174. 主要是预训练权重里面保存了默认coco数据集对应的anchor,
  175. 如果用户自定义了anchor,再加载预训练权重进行训练,会覆盖掉用户自定义的anchor。
  176. """
  177. # ***加载模型*** #
  178. model = Model(cfg or ckpt['model'].yaml, ch=3, nc=nc, anchors=hyp.get('anchors')).to(device) # create
  179. # ***以下三行是获得anchor*** #
  180. # 若cfg 或 hyp.get('anchors')不为空且不使用中断训练 exclude=['anchor'] 否则 exclude=[]
  181. exclude = ['anchor'] if (cfg or hyp.get('anchors')) and not resume else [] # exclude keys
  182. # 将预训练模型中的所有参数保存下来,赋值给csd
  183. csd = ckpt['model'].float().state_dict() # checkpoint state_dict as FP32
  184. # 判断预训练参数和新创建的模型参数有多少是相同的
  185. # 筛选字典中的键值对,把exclude删除
  186. csd = intersect_dicts(csd, model.state_dict(), exclude=exclude) # intersect
  187. # ***模型创建*** #
  188. model.load_state_dict(csd, strict=False) # load
  189. # 显示加载预训练权重的的键值对和创建模型的键值对
  190. # 如果pretrained为ture 则会少加载两个键对(anchors, anchor_grid)
  191. LOGGER.info(f'Transferred {len(csd)}/{len(model.state_dict())} items from {weights}') # report
  192. else:
  193. # #直接加载模型,ch为输入图片通道
  194. model = Model(cfg, ch=3, nc=nc, anchors=hyp.get('anchors')).to(device) # create
  195. '''
  196. 2.2设置模型输入
  197. '''
  198. # Freeze 冻结训练的网络层
  199. """
  200. 冻结模型层,设置冻结层名字即可
  201. 作用:冰冻一些层,就使得这些层在反向传播的时候不再更新权重,需要冻结的层,可以写在freeze列表中
  202. freeze为命令行参数,默认为0,表示不冻结
  203. """
  204. freeze = [f'model.{x}.' for x in range(freeze)] # layers to freeze
  205. # 首先遍历所有层
  206. for k, v in model.named_parameters():
  207. # 为所有层的参数设置梯度
  208. v.requires_grad = True # train all layers
  209. # 判断是否需要冻结
  210. if any(x in k for x in freeze):
  211. LOGGER.info(f'freezing {k}')
  212. # 冻结训练的层梯度不更新
  213. v.requires_grad = False
  214. # Image size 设置训练和测试图片尺寸
  215. # 获取模型总步长和模型输入图片分辨率
  216. gs = max(int(model.stride.max()), 32) # grid size (max stride)
  217. # 检查输入图片分辨率是否能被32整除
  218. imgsz = check_img_size(opt.imgsz, gs, floor=gs * 2) # verify imgsz is gs-multiple
  219. # Batch size 设置一次训练所选取的样本数
  220. if RANK == -1 and batch_size == -1: # single-GPU only, estimate best batch size
  221. # 确保batch size满足要求
  222. batch_size = check_train_batch_size(model, imgsz)
  223. '''
  224. 2.3 优化器设置
  225. '''
  226. # Optimizer 优化器
  227. nbs = 64 # nominal batch size
  228. """
  229. nbs = 64
  230. batchsize = 16
  231. accumulate = 64 / 16 = 4
  232. 模型梯度累计accumulate次之后就更新一次模型 相当于使用更大batch_size
  233. """
  234. accumulate = max(round(nbs / batch_size), 1) # accumulate loss before optimizing
  235. # 根据accumulate设置权重衰减参数,防止过拟合
  236. hyp['weight_decay'] *= batch_size * accumulate / nbs # scale weight_decay
  237. # 打印缩放后的权重衰减超参数
  238. LOGGER.info(f"Scaled weight_decay = {hyp['weight_decay']}")
  239. # 将模型分成三组(BN层的weight,卷积层的weights,biases)进行优化
  240. g0, g1, g2 = [], [], [] # optimizer parameter groups
  241. # 遍历网络中的所有层,每遍历完一层向更深的层遍历
  242. for v in model.modules():
  243. # hasattr: 测试指定的对象是否具有给定的属性,返回一个布尔值
  244. if hasattr(v, 'bias') and isinstance(v.bias, nn.Parameter): # bias
  245. # 将层的bias添加至g2
  246. g2.append(v.bias)
  247. # YOLO v5的模型架构中只有卷积层和BN层
  248. if isinstance(v, nn.BatchNorm2d): # weight (no decay)
  249. # 将BN层的权重添加至g0 未经过权重衰减
  250. g0.append(v.weight)
  251. elif hasattr(v, 'weight') and isinstance(v.weight, nn.Parameter): # weight (with decay)
  252. # 将层的weight添加至g1 经过了权重衰减
  253. # 这里指的是卷积层的weight
  254. g1.append(v.weight)
  255. # 选用优化器,并设置g0(bn参数)组的优化方式
  256. if opt.adam:
  257. optimizer = Adam(g0, lr=hyp['lr0'], betas=(hyp['momentum'], 0.999)) # adjust beta1 to momentum
  258. else:
  259. optimizer = SGD(g0, lr=hyp['lr0'], momentum=hyp['momentum'], nesterov=True)
  260. # 将卷积层的参数添加至优化器 并做权重衰减
  261. # add_param_group()函数为添加一个参数组,同一个优化器可以更新很多个参数组,不同的参数组可以设置不同的超参数
  262. optimizer.add_param_group({'params': g1, 'weight_decay': hyp['weight_decay']}) # add g1 with weight_decay
  263. # 将所有的bias添加至优化器
  264. optimizer.add_param_group({'params': g2}) # add g2 (biases)
  265. # 打印优化信息
  266. LOGGER.info(f"{colorstr('optimizer:')} {type(optimizer).__name__} with parameter groups "
  267. f"{len(g0)} weight, {len(g1)} weight (no decay), {len(g2)} bias")
  268. # 在内存中删除g0 g1 g2 目的是节省空间
  269. del g0, g1, g2
  270. '''
  271. 2.4 学习率设置
  272. '''
  273. # Scheduler 设置学习率策略:两者可供选择,线性学习率和余弦退火学习率
  274. if opt.linear_lr:
  275. # 使用线性学习率
  276. lf = lambda x: (1 - x / (epochs - 1)) * (1.0 - hyp['lrf']) + hyp['lrf'] # linear
  277. else:
  278. # 使用余弦退火学习率
  279. lf = one_cycle(1, hyp['lrf'], epochs) # cosine 1->hyp['lrf']
  280. # 可视化 scheduler
  281. scheduler = lr_scheduler.LambdaLR(optimizer, lr_lambda=lf) # plot_lr_scheduler(optimizer, scheduler, epochs)
  282. '''
  283. 2.5 训练前最后准备
  284. '''
  285. # EMA 设置ema(指数移动平均),考虑历史值对参数的影响,目的是为了收敛的曲线更加平滑
  286. ema = ModelEMA(model) if RANK in [-1, 0] else None # 为模型创建EMA指数滑动平均,如果GPU进程数大于1,则不创建
  287. # Resume 断点续训
  288. # 断点续训其实就是把上次训练结束的模型作为预训练模型,并从中加载参数
  289. start_epoch, best_fitness = 0, 0.0
  290. if pretrained:# 如果有预训练
  291. # Optimizer 加载优化器与best_fitness
  292. if ckpt['optimizer'] is not None:
  293. # 将预训练模型中的参数加载进优化器
  294. optimizer.load_state_dict(ckpt['optimizer'])
  295. # best_fitness是以[0.0, 0.0, 0.1, 0.9]为系数并乘以[精确度, 召回率, mAP@0.5, mAP@0.5:0.95]再求和所得
  296. # 获取预训练模型中的最佳fitness,保存为best.pt
  297. best_fitness = ckpt['best_fitness']
  298. # EMA
  299. # 加载ema模型和updates参数,保持ema的平滑性,现在yolov5是ema和model都保存了
  300. if ema and ckpt.get('ema'):
  301. ema.ema.load_state_dict(ckpt['ema'].float().state_dict())
  302. ema.updates = ckpt['updates']
  303. # Epochs 加载训练的迭代次数
  304. start_epoch = ckpt['epoch'] + 1 # 从上次的epoch接着训练
  305. if resume:
  306. assert start_epoch > 0, f'{weights} training to {epochs} epochs is finished, nothing to resume.'
  307. """
  308. 如果新设置epochs小于加载的epoch,
  309. 则视新设置的epochs为需要再训练的轮次数而不再是总的轮次数
  310. """
  311. # 如果训练的轮数小于开始的轮数
  312. if epochs < start_epoch:
  313. # 打印日志恢复训练
  314. LOGGER.info(f"{weights} has been trained for {ckpt['epoch']} epochs. Fine-tuning for {epochs} more epochs.")
  315. # 计算新的轮数
  316. epochs += ckpt['epoch'] # finetune additional epochs
  317. # 将预训练的相关参数从内存中删除
  318. del ckpt, csd
  319. # DP mode 使用单机多卡模式训练,目前一般不使用
  320. # rank为进程编号。如果rank=-1且gpu数量>1则使用DataParallel单机多卡模式,效果并不好(分布不平均)
  321. # rank=-1且gpu数量=1时,不会进行分布式
  322. if cuda and RANK == -1 and torch.cuda.device_count() > 1:
  323. LOGGER.warning('WARNING: DP not recommended, use torch.distributed.run for best DDP Multi-GPU results.\n'
  324. 'See Multi-GPU Tutorial at https://github.com/ultralytics/yolov5/issues/475 to get started.')
  325. model = torch.nn.DataParallel(model)
  326. # SyncBatchNorm 多卡归一化
  327. if opt.sync_bn and cuda and RANK != -1:# 多卡训练,把不同卡的数据做个同步
  328. model = torch.nn.SyncBatchNorm.convert_sync_batchnorm(model).to(device)
  329. LOGGER.info('Using SyncBatchNorm()')
  330. ''' =====================3.加载训练数据集========================== '''
  331. '''
  332. 3.1 创建数据集
  333. '''
  334. # Trainloader 创建训练集
  335. train_loader, dataset = create_dataloader(train_path, imgsz, batch_size // WORLD_SIZE, gs, single_cls,
  336. hyp=hyp, augment=True, cache=opt.cache, rect=opt.rect, rank=LOCAL_RANK,
  337. workers=workers, image_weights=opt.image_weights, quad=opt.quad,
  338. prefix=colorstr('train: '), shuffle=True)
  339. '''
  340. 返回一个训练数据加载器,一个数据集对象:
  341. 训练数据加载器是一个可迭代的对象,可以通过for循环加载1个batch_size的数据
  342. 数据集对象包括数据集的一些参数,包括所有标签值、所有的训练数据路径、每张图片的尺寸等等
  343. '''
  344. # 标签编号最大值
  345. mlc = int(np.concatenate(dataset.labels, 0)[:, 0].max()) # max label class
  346. # 类别总数
  347. nb = len(train_loader) # number of batches
  348. # 如果小于类别数则表示有问题
  349. assert mlc < nc, f'Label class {mlc} exceeds nc={nc} in {data}. Possible class labels are 0-{nc - 1}'
  350. # Process 0 验证集数据集加载
  351. if RANK in [-1, 0]:# 加载验证集数据加载器
  352. val_loader = create_dataloader(val_path, imgsz, batch_size // WORLD_SIZE * 2, gs, single_cls,
  353. hyp=hyp, cache=None if noval else opt.cache, rect=True, rank=-1,
  354. workers=workers, pad=0.5,
  355. prefix=colorstr('val: '))[0]
  356. if not resume:# 没有使用resume
  357. # 统计dataset的label信息
  358. labels = np.concatenate(dataset.labels, 0)
  359. # c = torch.tensor(labels[:, 0]) # classes
  360. # cf = torch.bincount(c.long(), minlength=nc) + 1. # frequency
  361. # model._initialize_biases(cf.to(device))
  362. if plots:# plots画出标签信息
  363. plot_labels(labels, names, save_dir)
  364. '''
  365. 3.2 计算anchor
  366. '''
  367. # Anchors 计算默认锚框anchor与数据集标签框的高宽比
  368. if not opt.noautoanchor:
  369. check_anchors(dataset, model=model, thr=hyp['anchor_t'], imgsz=imgsz)
  370. '''
  371. 参数dataset代表的是训练集,hyp['anchor_t']是从配置文件hpy.scratch.yaml读取的超参数,anchor_t:4.0
  372. 当配置文件中的anchor计算bpr(best possible recall)小于0.98时才会重新计算anchor。
  373. best possible recall最大值1,如果bpr小于0.98,程序会根据数据集的label自动学习anchor的尺寸
  374. '''
  375. # 半进度
  376. model.half().float() # pre-reduce anchor precision
  377. # 在每个训练前例行程序结束时触发所有已注册的回调
  378. callbacks.run('on_pretrain_routine_end')
  379. # DDP mode 如果rank不等于-1,则使用DistributedDataParallel模式
  380. if cuda and RANK != -1:
  381. # local_rank为gpu编号,rank为进程,例如rank=3,local_rank=0 表示第 3 个进程内的第 1 块 GPU。
  382. model = DDP(model, device_ids=[LOCAL_RANK], output_device=LOCAL_RANK)
  383. ''' =====================4.训练========================== '''
  384. '''
  385. 4.1 初始化训练需要的模型参数
  386. '''
  387. # Model attributes 根据自己数据集的类别数和网络FPN层数设置各个损失的系数
  388. nl = de_parallel(model).model[-1].nl # number of detection layers (to scale hyps)
  389. # box为预测框的损失
  390. hyp['box'] *= 3 / nl # scale to layers
  391. # cls为分类的损失
  392. hyp['cls'] *= nc / 80 * 3 / nl # scale to classes and layers
  393. # obj为置信度损失
  394. hyp['obj'] *= (imgsz / 640) ** 2 * 3 / nl # scale to image size and layers
  395. # 标签平滑
  396. hyp['label_smoothing'] = opt.label_smoothing
  397. # 设置模型的类别,然后将检测的类别个数保存到模型
  398. model.nc = nc # attach number of classes to model
  399. # 设置模型的超参数,然后将超参数保存到模型
  400. model.hyp = hyp # attach hyperparameters to model
  401. # 从训练的样本标签得到类别权重,然后将类别权重保存至模型
  402. model.class_weights = labels_to_class_weights(dataset.labels, nc).to(device) * nc # attach class weights
  403. # 获取类别的名字,然后将分类标签保存至模型
  404. model.names = names
  405. '''
  406. 4.2 训练热身部分
  407. '''
  408. # Start training
  409. t0 = time.time() # 获取当前时间
  410. # 获取热身训练的迭代次数
  411. nw = max(round(hyp['warmup_epochs'] * nb), 1000) # number of warmup iterations, max(3 epochs, 1k iterations)
  412. # nw = min(nw, (epochs - start_epoch) / 2 * nb) # limit warmup to < 1/2 of training
  413. last_opt_step = -1
  414. # 初始化 map和result
  415. maps = np.zeros(nc) # mAP per class
  416. results = (0, 0, 0, 0, 0, 0, 0) # P, R, mAP@.5, mAP@.5-.95, val_loss(box, obj, cls)
  417. # 设置学习率衰减所进行到的轮次,即使打断训练,使用resume接着训练也能正常衔接之前的训练进行学习率衰减
  418. scheduler.last_epoch = start_epoch - 1 # do not move
  419. # 设置amp混合精度训练 GradScaler + autocast
  420. scaler = amp.GradScaler(enabled=cuda)
  421. # 早停止,不更新结束训练
  422. stopper = EarlyStopping(patience=opt.patience)
  423. # 初始化损失函数
  424. compute_loss = ComputeLoss(model) # init loss class
  425. # 打印日志输出信息
  426. LOGGER.info(f'Image sizes {imgsz} train, {imgsz} val\n' # 打印训练和测试输入图片分辨率
  427. f'Using {train_loader.num_workers * WORLD_SIZE} dataloader workers\n' # 加载图片时调用的cpu进程数
  428. f"Logging results to {colorstr('bold', save_dir)}\n" # 日志目录
  429. f'Starting training for {epochs} epochs...') # 从哪个epoch开始训练
  430. '''
  431. 4.3 开始训练
  432. '''
  433. for epoch in range(start_epoch, epochs): # epoch ------------------------------------------------------------------
  434. '''
  435. 告诉模型现在是训练阶段 因为BN层、DropOut层、两阶段目标检测模型等
  436. 训练阶段阶段和预测阶段进行的运算是不同的,所以要将二者分开
  437. model.eval()指的是预测推断阶段
  438. '''
  439. model.train()
  440. # Update image weights (optional, single-GPU only) 更新图片的权重
  441. if opt.image_weights: # 获取图片采样的权重
  442. # 经过一轮训练,若哪一类的不精确度高,那么这个类就会被分配一个较高的权重,来增加它被采样的概率
  443. cw = model.class_weights.cpu().numpy() * (1 - maps) ** 2 / nc # class weights
  444. # 将计算出的权重换算到图片的维度,将类别的权重换算为图片的权重
  445. iw = labels_to_image_weights(dataset.labels, nc=nc, class_weights=cw) # image weights
  446. # 通过random.choices生成图片索引indices从而进行采样,这时图像会包含一些难识别的样本
  447. dataset.indices = random.choices(range(dataset.n), weights=iw, k=dataset.n) # rand weighted idx
  448. # Update mosaic border (optional)
  449. # b = int(random.uniform(0.25 * imgsz, 0.75 * imgsz + gs) // gs * gs)
  450. # dataset.mosaic_border = [b - imgsz, -b] # height, width borders
  451. # 初始化训练时打印的平均损失信息
  452. mloss = torch.zeros(3, device=device) # mean losses
  453. # 分布式训练的设置
  454. # DDP模式打乱数据,并且dpp.sampler的随机采样数据是基于epoch+seed作为随机种子,每次epoch不同,随机种子不同
  455. if RANK != -1:
  456. train_loader.sampler.set_epoch(epoch)
  457. # 将训练数据迭代器做枚举,可以遍历出索引值
  458. pbar = enumerate(train_loader)
  459. # 训练参数的表头
  460. LOGGER.info(('\n' + '%10s' * 7) % ('Epoch', 'gpu_mem', 'box', 'obj', 'cls', 'labels', 'img_size'))
  461. if RANK in [-1, 0]:
  462. # 通过tqdm创建进度条,方便训练信息的展示
  463. pbar = tqdm(pbar, total=nb, ncols=NCOLS, bar_format='{l_bar}{bar:10}{r_bar}{bar:-10b}') # progress bar
  464. # 将优化器中的所有参数梯度设为0
  465. optimizer.zero_grad()
  466. for i, (imgs, targets, paths, _) in pbar: # batch -------------------------------------------------------------
  467. # ni: 计算当前迭代次数 iteration
  468. ni = i + nb * epoch # number integrated batches (since train start)
  469. # 将图片加载至设备 并做归一化
  470. imgs = imgs.to(device, non_blocking=True).float() / 255 # uint8 to float32, 0-255 to 0.0-1.0
  471. # Warmup 热身训练
  472. '''
  473. 热身训练(前nw次迭代),热身训练迭代的次数iteration范围[1:nw]
  474. 在前nw次迭代中, 根据以下方式选取accumulate和学习率
  475. '''
  476. if ni <= nw:
  477. xi = [0, nw] # x interp
  478. # compute_loss.gr = np.interp(ni, xi, [0.0, 1.0]) # iou loss ratio (obj_loss = 1.0 or iou)
  479. accumulate = max(1, np.interp(ni, xi, [1, nbs / batch_size]).round())
  480. # 遍历优化器中的所有参数组
  481. for j, x in enumerate(optimizer.param_groups):
  482. # bias lr falls from 0.1 to lr0, all other lrs rise from 0.0 to lr0
  483. """
  484. bias的学习率从0.1下降到基准学习率lr*lf(epoch),
  485. 其他的参数学习率从0增加到lr*lf(epoch).
  486. lf为上面设置的余弦退火的衰减函数
  487. """
  488. x['lr'] = np.interp(ni, xi, [hyp['warmup_bias_lr'] if j == 2 else 0.0, x['initial_lr'] * lf(epoch)])
  489. if 'momentum' in x:
  490. x['momentum'] = np.interp(ni, xi, [hyp['warmup_momentum'], hyp['momentum']])
  491. # Multi-scale 设置多尺度训练,从imgsz * 0.5, imgsz * 1.5 + gs随机选取尺寸
  492. # imgsz: 默认训练尺寸 gs: 模型最大stride=32 [32 16 8]
  493. if opt.multi_scale: # 随机改变图片的尺寸
  494. sz = random.randrange(imgsz * 0.5, imgsz * 1.5 + gs) // gs * gs # size
  495. sf = sz / max(imgs.shape[2:]) # scale factor
  496. if sf != 1:
  497. ns = [math.ceil(x * sf / gs) * gs for x in imgs.shape[2:]] # new shape (stretched to gs-multiple)
  498. # 下采样
  499. imgs = nn.functional.interpolate(imgs, size=ns, mode='bilinear', align_corners=False)
  500. # Forward 前向传播
  501. with amp.autocast(enabled=cuda):
  502. # 将图片送入网络得到一个预测结果
  503. pred = model(imgs) # forward
  504. # 计算损失,包括分类损失,objectness损失,框的回归损失
  505. # loss为总损失值,loss_items为一个元组,包含分类损失,objectness损失,框的回归损失和总损失
  506. loss, loss_items = compute_loss(pred, targets.to(device)) # loss scaled by batch_size
  507. if RANK != -1:
  508. # 采用DDP训练,平均不同gpu之间的梯度
  509. loss *= WORLD_SIZE # gradient averaged between devices in DDP mode
  510. if opt.quad:
  511. # 如果采用collate_fn4取出mosaic4数据loss也要翻4倍
  512. loss *= 4.
  513. # Backward 反向传播 scale为使用自动混合精度运算
  514. scaler.scale(loss).backward()
  515. # Optimize 模型会对多批数据进行累积,只有达到累计次数的时候才会更新参数,再还没有达到累积次数时 loss会不断的叠加 不会被新的反传替代
  516. if ni - last_opt_step >= accumulate:
  517. '''
  518. scaler.step()首先把梯度的值unscale回来,
  519. 如果梯度的值不是 infs 或者 NaNs, 那么调用optimizer.step()来更新权重,
  520. 否则,忽略step调用,从而保证权重不更新(不被破坏)
  521. '''
  522. scaler.step(optimizer) # optimizer.step 参数更新
  523. # 更新参数
  524. scaler.update()
  525. # 完成一次累积后,再将梯度清零,方便下一次清零
  526. optimizer.zero_grad()
  527. if ema:
  528. ema.update(model)
  529. # 计数
  530. last_opt_step = ni
  531. # Log 打印Print一些信息 包括当前epoch、显存、损失(box、obj、cls、total)、当前batch的target的数量和图片的size等信息
  532. if RANK in [-1, 0]:
  533. # 打印显存,进行的轮次,损失,target的数量和图片的size等信息
  534. mloss = (mloss * i + loss_items) / (i + 1) # update mean losses
  535. # 计算显存
  536. mem = f'{torch.cuda.memory_reserved() / 1E9 if torch.cuda.is_available() else 0:.3g}G' # (GB)
  537. # 进度条显示以上信息
  538. pbar.set_description(('%10s' * 2 + '%10.4g' * 5) % (
  539. f'{epoch}/{epochs - 1}', mem, *mloss, targets.shape[0], imgs.shape[-1]))
  540. # 调用Loggers中的on_train_batch_end方法,将日志记录并生成一些记录的图片
  541. callbacks.run('on_train_batch_end', ni, model, imgs, targets, paths, plots, opt.sync_bn)
  542. # end batch ------------------------------------------------------------------------------------------------
  543. # Scheduler 进行学习率衰减
  544. lr = [x['lr'] for x in optimizer.param_groups] # for loggers
  545. # 根据前面设置的学习率更新策略更新学习率
  546. scheduler.step()
  547. '''
  548. 4.4 训练完成保存模型
  549. '''
  550. if RANK in [-1, 0]:
  551. # mAP
  552. callbacks.run('on_train_epoch_end', epoch=epoch)
  553. # 将model中的属性赋值给ema
  554. ema.update_attr(model, include=['yaml', 'nc', 'hyp', 'names', 'stride', 'class_weights'])
  555. # 判断当前epoch是否是最后一轮
  556. final_epoch = (epoch + 1 == epochs) or stopper.possible_stop
  557. # notest: 是否只测试最后一轮 True: 只测试最后一轮 False: 每轮训练完都测试mAP
  558. if not noval or final_epoch: # Calculate mAP
  559. """
  560. 测试使用的是ema(指数移动平均 对模型的参数做平均)的模型
  561. results: [1] Precision 所有类别的平均precision(最大f1时)
  562. [1] Recall 所有类别的平均recall
  563. [1] map@0.5 所有类别的平均mAP@0.5
  564. [1] map@0.5:0.95 所有类别的平均mAP@0.5:0.95
  565. [1] box_loss 验证集回归损失, obj_loss 验证集置信度损失, cls_loss 验证集分类损失
  566. maps: [80] 所有类别的mAP@0.5:0.95
  567. """
  568. results, maps, _ = val.run(data_dict, # 数据集配置文件地址 包含数据集的路径、类别个数、类名、下载地址等信息
  569. batch_size=batch_size // WORLD_SIZE * 2, # 要保证batch_size能整除卡数
  570. imgsz=imgsz,
  571. model=ema.ema,
  572. single_cls=single_cls, # 是否是单类数据集
  573. dataloader=val_loader,
  574. save_dir=save_dir, # 保存地址 runs/train/expn
  575. plots=False, # 是否可视化
  576. callbacks=callbacks,
  577. compute_loss=compute_loss) # 损失函数(train)
  578. # Update best mAP 更新best_fitness
  579. # fi: [P, R, mAP@.5, mAP@.5-.95]的一个加权值 = 0.1*mAP@.5 + 0.9*mAP@.5-.95
  580. fi = fitness(np.array(results).reshape(1, -1)) # weighted combination of [P, R, mAP@.5, mAP@.5-.95]
  581. # 若当前的fitness大于最佳的fitness
  582. if fi > best_fitness:
  583. # 将最佳fitness更新为当前fitness
  584. best_fitness = fi
  585. # 保存验证结果
  586. log_vals = list(mloss) + list(results) + lr
  587. # 记录验证数据
  588. callbacks.run('on_fit_epoch_end', log_vals, epoch, best_fitness, fi)
  589. # Save model 保存模型
  590. """
  591. 保存带checkpoint的模型用于inference或resuming training
  592. 保存模型, 还保存了epoch, results, optimizer等信息
  593. optimizer将不会在最后一轮完成后保存
  594. model保存的是EMA的模型
  595. """
  596. if (not nosave) or (final_epoch and not evolve): # if save
  597. # 将当前训练过程中的所有参数赋值给ckpt
  598. ckpt = {'epoch': epoch,
  599. 'best_fitness': best_fitness,
  600. 'model': deepcopy(de_parallel(model)).half(),
  601. 'ema': deepcopy(ema.ema).half(),
  602. 'updates': ema.updates,
  603. 'optimizer': optimizer.state_dict(),
  604. 'wandb_id': loggers.wandb.wandb_run.id if loggers.wandb else None,
  605. 'date': datetime.now().isoformat()}
  606. # Save last, best and delete 保存每轮的模型
  607. torch.save(ckpt, last)
  608. # 如果这个模型的fitness是最佳的
  609. if best_fitness == fi:
  610. # 保存这个最佳的模型
  611. torch.save(ckpt, best)
  612. if (epoch > 0) and (opt.save_period > 0) and (epoch % opt.save_period == 0):
  613. torch.save(ckpt, w / f'epoch{epoch}.pt')
  614. # 模型保存完毕 将变量从内存中删除
  615. del ckpt
  616. # 记录保存模型时的日志
  617. callbacks.run('on_model_save', last, epoch, final_epoch, best_fitness, fi)
  618. # Stop Single-GPU 停止单卡训练
  619. if RANK == -1 and stopper(epoch=epoch, fitness=fi):
  620. break
  621. # Stop DDP TODO: known issues shttps://github.com/ultralytics/yolov5/pull/4576
  622. # stop = stopper(epoch=epoch, fitness=fi)
  623. # if RANK == 0:
  624. # dist.broadcast_object_list([stop], 0) # broadcast 'stop' to all ranks
  625. # Stop DPP
  626. # with torch_distributed_zero_first(RANK):
  627. # if stop:
  628. # break # must break all DDP ranks
  629. # end epoch ----------------------------------------------------------------------------------------------------
  630. # end training -----------------------------------------------------------------------------------------------------
  631. '''
  632. 4.5 打印输出信息
  633. '''
  634. # 打印一些信息
  635. if RANK in [-1, 0]:
  636. # 训练停止 向控制台输出信息
  637. LOGGER.info(f'\n{epoch - start_epoch + 1} epochs completed in {(time.time() - t0) / 3600:.3f} hours.')
  638. # 可视化训练结果: results1.png confusion_matrix.png 以及('F1', 'PR', 'P', 'R')曲线变化 日志信息
  639. for f in last, best:
  640. if f.exists():
  641. # 模型训练完后, strip_optimizer函数将optimizer从ckpt中删除
  642. strip_optimizer(f) # strip optimizers
  643. if f is best:
  644. # 把最好的模型在验证集上跑一边 并绘图
  645. LOGGER.info(f'\nValidating {f}...')
  646. results, _, _ = val.run(data_dict,
  647. batch_size=batch_size // WORLD_SIZE * 2,
  648. imgsz=imgsz,
  649. model=attempt_load(f, device).half(),
  650. iou_thres=0.65 if is_coco else 0.60, # best pycocotools results at 0.65
  651. single_cls=single_cls,
  652. dataloader=val_loader,
  653. save_dir=save_dir,
  654. save_json=is_coco,
  655. verbose=True,
  656. plots=True,
  657. callbacks=callbacks,
  658. compute_loss=compute_loss) # val best model with plots
  659. if is_coco:# 如果是coco数据集
  660. callbacks.run('on_fit_epoch_end', list(mloss) + list(results) + lr, epoch, best_fitness, fi)
  661. # 记录训练终止时的日志
  662. callbacks.run('on_train_end', last, best, plots, epoch, results)
  663. LOGGER.info(f"Results saved to {colorstr('bold', save_dir)}")
  664. # 释放显存
  665. torch.cuda.empty_cache()
  666. return results
  667. '''===============================================三、设置opt参数==================================================='''
  668. """"
  669. opt参数解析:
  670. cfg: 模型配置文件,网络结构
  671. data: 数据集配置文件,数据集路径,类名等
  672. hyp: 超参数文件
  673. epochs: 训练总轮次
  674. batch-size: 批次大小
  675. img-size: 输入图片分辨率大小
  676. rect: 是否采用矩形训练,默认False
  677. resume: 接着打断训练上次的结果接着训练
  678. nosave: 不保存模型,默认False
  679. notest: 不进行test,默认False
  680. noautoanchor: 不自动调整anchor,默认False
  681. evolve: 是否进行超参数进化,默认False
  682. bucket: 谷歌云盘bucket,一般不会用到
  683. cache-images: 是否提前缓存图片到内存,以加快训练速度,默认False
  684. weights: 加载的权重文件
  685. name: 数据集名字,如果设置:results.txt to results_name.txt,默认无
  686. device: 训练的设备,cpu0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)
  687. multi-scale: 是否进行多尺度训练,默认False
  688. single-cls: 数据集是否只有一个类别,默认False
  689. adam: 是否使用adam优化器
  690. sync-bn: 是否使用跨卡同步BN,在DDP模式使用
  691. local_rank: gpu编号
  692. logdir: 存放日志的目录
  693. workers: dataloader的最大worker数量
  694. """
  695. def parse_opt(known=False):
  696. parser = argparse.ArgumentParser()
  697. # 预训练权重文件
  698. parser.add_argument('--weights', type=str, default=ROOT / 'pretrained/yolov5s.pt', help='initial weights path')
  699. # 训练模型
  700. parser.add_argument('--cfg', type=str, default=ROOT / 'models/yolov5s.yaml', help='model.yaml path')
  701. # 训练路径,包括训练集,验证集,测试集的路径,类别总数等
  702. parser.add_argument('--data', type=str, default=ROOT / 'data/fire_data.yaml', help='dataset.yaml path')
  703. # hpy超参数设置文件(lr/sgd/mixup)./data/hyps/下面有5个超参数设置文件,每个文件的超参数初始值有细微区别,用户可以根据自己的需求选择其中一个
  704. parser.add_argument('--hyp', type=str, default=ROOT / 'data/hyps/hyp.scratch.yaml', help='hyperparameters path')
  705. # epochs: 训练轮次, 默认轮次为300次
  706. parser.add_argument('--epochs', type=int, default=300)
  707. # batchsize: 训练批次, 默认bs=16
  708. parser.add_argument('--batch-size', type=int, default=4, help='total batch size for all GPUs, -1 for autobatch')
  709. # imagesize: 设置图片大小, 默认640*640
  710. parser.add_argument('--imgsz', '--img', '--img-size', type=int, default=640, help='train, val image size (pixels)')
  711. # rect: 是否采用矩形训练,默认为False
  712. parser.add_argument('--rect', action='store_true', help='rectangular training')
  713. # resume: 是否接着上次的训练结果,继续训练
  714. # 矩形训练:将比例相近的图片放在一个batch(由于batch里面的图片shape是一样的)
  715. parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
  716. # nosave: 不保存模型 默认False(保存) 在./runs/exp*/train/weights/保存两个模型 一个是最后一次的模型 一个是最好的模型
  717. # best.pt/ last.pt 不建议运行代码添加 --nosave
  718. parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
  719. # noval: 最后进行测试, 设置了之后就是训练结束都测试一下, 不设置每轮都计算mAP, 建议不设置
  720. parser.add_argument('--noval', action='store_true', help='only validate final epoch')
  721. # noautoanchor: 不自动调整anchor, 默认False, 自动调整anchor
  722. parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
  723. # evolve: 参数进化, 遗传算法调参
  724. parser.add_argument('--evolve', type=int, nargs='?', const=300, help='evolve hyperparameters for x generations')
  725. # bucket: 谷歌优盘 / 一般用不到
  726. parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
  727. # cache: 是否提前缓存图片到内存,以加快训练速度,默认False
  728. parser.add_argument('--cache', type=str, nargs='?', const='ram', help='--cache images in "ram" (default) or "disk"')
  729. # mage-weights: 使用图片采样策略,默认不使用
  730. parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
  731. # device: 设备选择
  732. parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
  733. # parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
  734. # multi-scale 是否进行多尺度训练
  735. parser.add_argument('--multi-scale', default=True, help='vary img-size +/- 50%%')
  736. # single-cls: 数据集是否多类/默认True
  737. parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
  738. # optimizer: 优化器选择 / 提供了三种优化器
  739. parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
  740. # sync-bn: 是否使用跨卡同步BN,在DDP模式使用
  741. parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
  742. # dataloader的最大worker数量 (使用多线程加载图片)
  743. parser.add_argument('--workers', type=int, default=0, help='max dataloader workers (per RANK in DDP mode)')
  744. # 训练结果的保存路径
  745. parser.add_argument('--project', default=ROOT / 'runs/train', help='save to project/name')
  746. # 训练结果的文件名称
  747. parser.add_argument('--name', default='exp', help='save to project/name')
  748. # 项目位置是否存在 / 默认是都不存在
  749. parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
  750. # 四元数据加载器: 允许在较低 --img 尺寸下进行更高 --img 尺寸训练的一些好处。
  751. parser.add_argument('--quad', action='store_true', help='quad dataloader')
  752. # cos-lr: 余弦学习率
  753. parser.add_argument('--linear-lr', action='store_true', help='linear LR')
  754. # 标签平滑 / 默认不增强, 用户可以根据自己标签的实际情况设置这个参数,建议设置小一点 0.1 / 0.05
  755. parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')
  756. # 早停止耐心次数 / 100次不更新就停止训练
  757. parser.add_argument('--patience', type=int, default=100, help='EarlyStopping patience (epochs without improvement)')
  758. # --freeze冻结训练 可以设置 default = [0] 数据量大的情况下,建议不设置这个参数
  759. parser.add_argument('--freeze', type=int, default=0, help='Number of layers to freeze. backbone=10, all=24')
  760. # --save-period 多少个epoch保存一下checkpoint
  761. parser.add_argument('--save-period', type=int, default=-1, help='Save checkpoint every x epochs (disabled if < 1)')
  762. # --local_rank 进程编号 / 多卡使用
  763. parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
  764. # Weights & Biases arguments
  765. # 在线可视化工具,类似于tensorboard工具
  766. parser.add_argument('--entity', default=None, help='W&B: Entity')
  767. # upload_dataset: 是否上传dataset到wandb tabel(将数据集作为交互式 dsviz表 在浏览器中查看、查询、筛选和分析数据集) 默认False
  768. parser.add_argument('--upload_dataset', action='store_true', help='W&B: Upload dataset as artifact table')
  769. # bbox_interval: 设置界框图像记录间隔 Set bounding-box image logging interval for W&B 默认-1 opt.epochs // 10
  770. parser.add_argument('--bbox_interval', type=int, default=-1, help='W&B: Set bounding-box image logging interval')
  771. # 使用数据的版本
  772. parser.add_argument('--artifact_alias', type=str, default='latest', help='W&B: Version of dataset artifact to use')
  773. # 作用就是当仅获取到基本设置时,如果运行命令中传入了之后才会获取到的其他配置,不会报错;而是将多出来的部分保存起来,留到后面使用
  774. opt = parser.parse_known_args()[0] if known else parser.parse_args()
  775. return opt
  776. '''===============================================四、main()函数==================================================='''
  777. def main(opt, callbacks=Callbacks()):
  778. '''
  779. 4.1 检查分布式训练环境
  780. '''
  781. # Checks
  782. if RANK in [-1, 0]: # 若进程编号为-1或0
  783. # 输出所有训练参数 / 参数以彩色的方式表现
  784. print_args(FILE.stem, opt)
  785. # 检测YOLO v5的github仓库是否更新,若已更新,给出提示
  786. check_git_status()
  787. # 检查requirements.txt所需包是否都满足
  788. check_requirements(exclude=['thop'])
  789. '''
  790. 4.2 判断是否断点续训
  791. '''
  792. # Resume
  793. if opt.resume and not check_wandb_resume(opt) and not opt.evolve: # resume an interrupted run
  794. # isinstance()是否是已经知道的类型
  795. # 如果resume是True,则通过get_lastest_run()函数找到runs为文件夹中最近的权重文件last.pt
  796. ckpt = opt.resume if isinstance(opt.resume, str) else get_latest_run() # specified or most recent path
  797. # 判断是否为文件,若不是文件抛出异常
  798. assert os.path.isfile(ckpt), 'ERROR: --resume checkpoint does not exist'
  799. # opt.yaml是训练时的命令行参数文件
  800. with open(Path(ckpt).parent.parent / 'opt.yaml', errors='ignore') as f:
  801. # 超参数替换,将训练时的命令行参数加载进opt参数对象中
  802. opt = argparse.Namespace(**yaml.safe_load(f)) # replace
  803. # opt.cfg设置为'' 对应着train函数里面的操作(加载权重时是否加载权重里的anchor)
  804. opt.cfg, opt.weights, opt.resume = '', ckpt, True # reinstate
  805. # 打印从ckpt恢复断点训练信息
  806. LOGGER.info(f'Resuming training from {ckpt}')
  807. else:
  808. # 不使用断点续训,就从文件中读取相关参数
  809. # check_file (utils/general.py)的作用为查找/下载文件 并返回该文件的路径。
  810. opt.data, opt.cfg, opt.hyp, opt.weights, opt.project = \
  811. check_file(opt.data), check_yaml(opt.cfg), check_yaml(opt.hyp), str(opt.weights), str(opt.project) # checks
  812. # 如果模型文件和权重文件为空,弹出警告
  813. assert len(opt.cfg) or len(opt.weights), 'either --cfg or --weights must be specified'
  814. # 如果要进行超参数进化,重建保存路径
  815. if opt.evolve:
  816. # 设置新的项目输出目录
  817. opt.project = str(ROOT / 'runs/evolve')
  818. # 将resume传递给exist_ok
  819. opt.exist_ok, opt.resume = opt.resume, False # pass resume to exist_ok and disable resume
  820. # 根据opt.project生成目录,并赋值给opt.save_dir 如: runs/train/exp1
  821. opt.save_dir = str(increment_path(Path(opt.project) / opt.name, exist_ok=opt.exist_ok))
  822. '''
  823. 4.3 判断是否分布式训练
  824. '''
  825. # DDP mode --> 支持多机多卡、分布式训练
  826. # 选择程序装载的位置
  827. device = select_device(opt.device, batch_size=opt.batch_size)
  828. # 当进程内的GPU编号不为-1时,才会进入DDP
  829. if LOCAL_RANK != -1:
  830. # 用于DDP训练的GPU数量不足
  831. assert torch.cuda.device_count() > LOCAL_RANK, 'insufficient CUDA devices for DDP command'
  832. # WORLD_SIZE表示全局的进程数
  833. assert opt.batch_size % WORLD_SIZE == 0, '--batch-size must be multiple of CUDA device count'
  834. # 不能使用图片采样策略
  835. assert not opt.image_weights, '--image-weights argument is not compatible with DDP training'
  836. # 不能使用超参数进化
  837. assert not opt.evolve, '--evolve argument is not compatible with DDP training'
  838. # 设置装载程序设备
  839. torch.cuda.set_device(LOCAL_RANK)
  840. # 保存装载程序的设备
  841. device = torch.device('cuda', LOCAL_RANK)
  842. # torch.distributed是用于多GPU训练的模块
  843. dist.init_process_group(backend="nccl" if dist.is_nccl_available() else "gloo")
  844. '''
  845. 4.4 判断是否进化训练
  846. '''
  847. # Train 训练模式: 如果不进行超参数进化,则直接调用train()函数,开始训练
  848. if not opt.evolve:# 如果不使用超参数进化
  849. # 开始训练
  850. train(opt.hyp, opt, device, callbacks)
  851. if WORLD_SIZE > 1 and RANK == 0:
  852. # 如果全局进程数大于1并且RANK等于0
  853. # 日志输出 销毁进程组
  854. LOGGER.info('Destroying process group... ')
  855. # 训练完毕,销毁所有进程
  856. dist.destroy_process_group()
  857. # Evolve hyperparameters (optional) 遗传进化算法,边进化边训练
  858. else:
  859. # Hyperparameter evolution metadata (mutation scale 0-1, lower_limit, upper_limit)
  860. # 超参数列表(突变范围 - 最小值 - 最大值)
  861. meta = {'lr0': (1, 1e-5, 1e-1), # initial learning rate (SGD=1E-2, Adam=1E-3)
  862. 'lrf': (1, 0.01, 1.0), # final OneCycleLR learning rate (lr0 * lrf)
  863. 'momentum': (0.3, 0.6, 0.98), # SGD momentum/Adam beta1
  864. 'weight_decay': (1, 0.0, 0.001), # optimizer weight decay
  865. 'warmup_epochs': (1, 0.0, 5.0), # warmup epochs (fractions ok)
  866. 'warmup_momentum': (1, 0.0, 0.95), # warmup initial momentum
  867. 'warmup_bias_lr': (1, 0.0, 0.2), # warmup initial bias lr
  868. 'box': (1, 0.02, 0.2), # box loss gain
  869. 'cls': (1, 0.2, 4.0), # cls loss gain
  870. 'cls_pw': (1, 0.5, 2.0), # cls BCELoss positive_weight
  871. 'obj': (1, 0.2, 4.0), # obj loss gain (scale with pixels)
  872. 'obj_pw': (1, 0.5, 2.0), # obj BCELoss positive_weight
  873. 'iou_t': (0, 0.1, 0.7), # IoU training threshold
  874. 'anchor_t': (1, 2.0, 8.0), # anchor-multiple threshold
  875. 'anchors': (2, 2.0, 10.0), # anchors per output grid (0 to ignore)
  876. 'fl_gamma': (0, 0.0, 2.0), # focal loss gamma (efficientDet default gamma=1.5)
  877. 'hsv_h': (1, 0.0, 0.1), # image HSV-Hue augmentation (fraction)
  878. 'hsv_s': (1, 0.0, 0.9), # image HSV-Saturation augmentation (fraction)
  879. 'hsv_v': (1, 0.0, 0.9), # image HSV-Value augmentation (fraction)
  880. 'degrees': (1, 0.0, 45.0), # image rotation (+/- deg)
  881. 'translate': (1, 0.0, 0.9), # image translation (+/- fraction)
  882. 'scale': (1, 0.0, 0.9), # image scale (+/- gain)
  883. 'shear': (1, 0.0, 10.0), # image shear (+/- deg)
  884. 'perspective': (0, 0.0, 0.001), # image perspective (+/- fraction), range 0-0.001
  885. 'flipud': (1, 0.0, 1.0), # image flip up-down (probability)
  886. 'fliplr': (0, 0.0, 1.0), # image flip left-right (probability)
  887. 'mosaic': (1, 0.0, 1.0), # image mixup (probability)
  888. 'mixup': (1, 0.0, 1.0), # image mixup (probability)
  889. 'copy_paste': (1, 0.0, 1.0)} # segment copy-paste (probability)
  890. # 加载默认超参数
  891. with open(opt.hyp, errors='ignore') as f:
  892. hyp = yaml.safe_load(f) # load hyps dict
  893. # 如果超参数文件中没有'anchors',则设为3
  894. if 'anchors' not in hyp: # anchors commented in hyp.yaml
  895. hyp['anchors'] = 3
  896. # 使用进化算法时,仅在最后的epoch测试和保存
  897. opt.noval, opt.nosave, save_dir = True, True, Path(opt.save_dir) # only val/save final epoch
  898. # ei = [isinstance(x, (int, float)) for x in hyp.values()] # evolvable indices
  899. evolve_yaml, evolve_csv = save_dir / 'hyp_evolve.yaml', save_dir / 'evolve.csv'
  900. if opt.bucket:
  901. os.system(f'gsutil cp gs://{opt.bucket}/evolve.csv {save_dir}') # download evolve.csv if exists
  902. """
  903. 遗传算法调参:遵循适者生存、优胜劣汰的法则,即寻优过程中保留有用的,去除无用的。
  904. 遗传算法需要提前设置4个参数: 群体大小/进化代数/交叉概率/变异概率
  905. """
  906. # 选择超参数的遗传迭代次数 默认为迭代300次
  907. for _ in range(opt.evolve): # generations to evolve
  908. # 如果evolve.csv文件存在
  909. if evolve_csv.exists(): # if evolve.csv exists: select best hyps and mutate
  910. # Select parent(s)
  911. # 选择超参进化方式,只用single和weighted两种
  912. parent = 'single' # parent selection method: 'single' or 'weighted'
  913. # 加载evolve.txt
  914. x = np.loadtxt(evolve_csv, ndmin=2, delimiter=',', skiprows=1)
  915. # 选取至多前五次进化的结果
  916. n = min(5, len(x)) # number of previous results to consider
  917. # fitness()为x前四项加权 [P, R, mAP@0.5, mAP@0.5:0.95]
  918. # np.argsort只能从小到大排序, 添加负号实现从大到小排序, 算是排序的一个代码技巧
  919. x = x[np.argsort(-fitness(x))][:n] # top n mutations
  920. # 根据(mp, mr, map50, map)的加权和来作为权重计算hyp权重
  921. w = fitness(x) - fitness(x).min() + 1E-6 # weights (sum > 0)
  922. # 根据不同进化方式获得base hyp
  923. if parent == 'single' or len(x) == 1:
  924. # 根据权重的几率随机挑选适应度历史前5的其中一个
  925. # x = x[random.randint(0, n - 1)] # random selection
  926. x = x[random.choices(range(n), weights=w)[0]] # weighted selection
  927. elif parent == 'weighted':
  928. # 对hyp乘上对应的权重融合层一个hpy, 再取平均(除以权重和)
  929. x = (x * w.reshape(n, 1)).sum(0) / w.sum() # weighted combination
  930. # Mutate 突变(超参数进化)
  931. mp, s = 0.8, 0.2 # mutation probability, sigma:突变概率
  932. npr = np.random
  933. # 根据时间设置随机数种子
  934. npr.seed(int(time.time()))
  935. # 获取突变初始值, 也就是meta三个值的第一个数据
  936. # 三个数值分别对应着: 变异初始概率, 最低限值, 最大限值(mutation scale 0-1, lower_limit, upper_limit)
  937. g = np.array([meta[k][0] for k in hyp.keys()]) # gains 0-1
  938. ng = len(meta)
  939. # 确保至少其中有一个超参变异了
  940. v = np.ones(ng)
  941. # 设置突变
  942. while all(v == 1): # mutate until a change occurs (prevent duplicates)
  943. v = (g * (npr.random(ng) < mp) * npr.randn(ng) * npr.random() * s + 1).clip(0.3, 3.0)
  944. # 将突变添加到base hyp上
  945. for i, k in enumerate(hyp.keys()): # plt.hist(v.ravel(), 300)
  946. hyp[k] = float(x[i + 7] * v[i]) # mutate
  947. # Constrain to limits 限制hyp在规定范围内
  948. for k, v in meta.items():
  949. # 这里的hyp是超参数配置文件对象
  950. # 而这里的k和v是在元超参数中遍历出来的
  951. # hyp的v是一个数,而元超参数的v是一个元组
  952. hyp[k] = max(hyp[k], v[1]) # 先限定最小值,选择二者之间的大值 ,这一步是为了防止hyp中的值过小
  953. hyp[k] = min(hyp[k], v[2]) # 再限定最大值,选择二者之间的小值
  954. hyp[k] = round(hyp[k], 5) # 四舍五入到小数点后五位
  955. # 最后的值应该是 hyp中的值与 meta的最大值之间的较小者
  956. # Train mutation 使用突变后的参超,测试其效果
  957. results = train(hyp.copy(), opt, device, callbacks)
  958. # Write mutation results
  959. # 将结果写入results,并将对应的hyp写到evolve.txt,evolve.txt中每一行为一次进化的结果
  960. # 每行前七个数字 (P, R, mAP, F1, test_losses(GIOU, obj, cls)) 之后为hyp
  961. # 保存hyp到yaml文件
  962. print_mutation(hyp.copy(), results, yaml_file, opt.bucket)
  963. # Plot results 将结果可视化 / 输出保存信息
  964. plot_evolve(evolve_csv)
  965. LOGGER.info(f'Hyperparameter evolution finished\n'
  966. f"Results saved to {colorstr('bold', save_dir)}\n"
  967. f'Use best hyperparameters example: $ python train.py --hyp {evolve_yaml}')
  968. '''===============================================五、run()函数==================================================='''
  969. def run(**kwargs):
  970. # 执行这个脚本/ 调用train函数 / 开启训练
  971. # Usage: import train; train.run(data='coco128.yaml', imgsz=320, weights='yolov5m.pt')
  972. opt = parse_opt(True)
  973. for k, v in kwargs.items():
  974. # setattr() 赋值属性,属性不存在则创建一个赋值
  975. setattr(opt, k, v)
  976. main(opt)
  977. # python train.py --data fire_data.yaml --cfg mask_yolov5s.yaml --weights pretrained/yolov5s.pt --epoch 100 --batch-size 2 --device cpu
  978. # python train.py --data fire_data.yaml --cfg mask_yolov5l.yaml --weights pretrained/yolov5l.pt --epoch 100 --batch-size 2
  979. # python train.py --data fire_data.yaml --cfg mask_yolov5m.yaml --weights pretrained/yolov5m.pt --epoch 100 --batch-size 2
  980. if __name__ == "__main__":
  981. opt = parse_opt()
  982. main(opt)

本文参考:

【YOLOV5-5.x 源码解读】train.py


本文转载自: https://blog.csdn.net/weixin_43334693/article/details/129460666
版权归原作者 路人贾'ω' 所有, 如有侵权,请联系我们删除。

“YOLOv5源码逐行超详细注释与解读(3)——训练部分train.py”的评论:

还没有评论