0


基于 YOLO V10 Fine-Tuning 训练自定义的目标检测模型

一、YOLO V10

在本专栏的前面几篇文章中,我们使用

  1. ultralytics

公司开源发布的

  1. YOLO-V8

模型,分别

  1. Fine-Tuning

实验了 目标检测、关键点检测、分类 任务,实验后发现效果都非常的不错,但它已经不是最强的了。最新的

  1. YOLO-V10

已经完全超越之前的所有版本,

  1. YOLO-V10

由清华大学提供,采用无

  1. NMS

训练和效率-精度驱动架构,提供目前最先进的性能和延迟。

在这里插入图片描述

从上图中的对比效果可以明显看出,

  1. YOLO-V10

不仅在速度上得到了极大的提升,精度同样也得到了明显的提升。主要得益于其 无

  1. NMS

训练的重大变化。

在模型上

  1. V10

和之前的版本类似,包括不同大小的模型,从小到大包括:

  • YOLOv10-N:用于资源极其有限环境的纳米版本。
  • YOLOv10-S:兼顾速度和精度的小型版本。
  • YOLOv10-M:通用中型版本。
  • YOLOv10-B:平衡型,宽度增加,精度更高。
  • YOLOv10-L:大型版本,精度更高,但计算资源增加。
  • YOLOv10-X:超大型版本可实现最高精度和性能。

模型的比较如下:

在这里插入图片描述

更多的介绍可以参考官方的文档:

https://docs.ultralytics.com/de/models/yolov10/#model-variants

本文借助

  1. ultralytics

框架对

  1. YOLO V10

迁移训练自定义的目标检测模型,本次实验训练一个人脸检测模型,包括数据标注、数据拆分、训练、测试等过程。

实验采用

  1. ultralytics

框架,可以帮助开发人员高效完成数据训练和验证任务,由于

  1. ultralytics

默认采用的为

  1. PyTorch

框架,因此实验前请安装好

  1. cuda

  1. torch

环境,如果没有

  1. GPU

环境,由于

  1. YOLO V10

已经足够轻量级,使用

  1. CPU

也是可以训练。

安装

  1. ultralytics

库:

  1. pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple

如果已经安装,需要更新到最新版本:

  1. pip install--upgrade ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple
  1. ultralytics

使用文档:

https://docs.ultralytics.com/zh/quickstart/#use-ultralytics-with-python

测试

  1. YOLO V10

的效果:

测试图片:
在这里插入图片描述

这里使用

  1. yolov10n

模型,如果模型不存在会自动下载

  1. from ultralytics import YOLO
  2. # Load a model
  3. model = YOLO('yolov10n.pt')
  4. results = model.predict('./img/1.png')
  5. results[0].show()

在这里插入图片描述

在这里插入图片描述

二、准备训练数据及标注

图像数据可以从网上找一些或者自己拍摄,我这里准备了一些 人 的图片:

在这里插入图片描述

这里可以准备两个目录,

  1. data/images

  1. data/labels

,其中

  1. labels

存放标注后的文件,将收集到的图像放在

  1. images

目录下:

在这里插入图片描述

下面使用

  1. labelimg

工具进行标注,如果没有安装,使用下面命令安装:

  1. pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple

然后在控制台输入:

  1. labelimg

打开可视化工具:

在这里插入图片描述

注意:数据集格式默认是

  1. VOC

格式的,要选择为

  1. YOLO

,我这里的人脸标签为

  1. face

,这个后面需要使用到。

标注完成后,可以在

  1. /data/labels

下看到标注后的文件:

在这里插入图片描述

三、数据拆分

这里拆分为

  1. 90%

的训练集,

  1. 10%

的验证集,这部分和之前训练

  1. YOLO V8

时一致,拆分脚本如下,

  1. import os
  2. import shutil
  3. from tqdm import tqdm
  4. # 图片地址
  5. image_dir ="data/images/"# 标准文件地址
  6. label_dir ="data/labels/"# 训练集的比例
  7. training_ratio =0.9# 拆分后数据的位置
  8. train_dir ="train_data"defsplit_data():list= os.listdir(image_dir)all=len(list)
  9. train_count =int(all* training_ratio)
  10. train_images =list[0:train_count]
  11. val_images =list[train_count:]# 训练集目录
  12. os.makedirs(os.path.join(train_dir,"images/train"), exist_ok=True)
  13. os.makedirs(os.path.join(train_dir,"labels/train"), exist_ok=True)# 验证集目录
  14. os.makedirs(os.path.join(train_dir,"images/val"), exist_ok=True)
  15. os.makedirs(os.path.join(train_dir,"labels/val"), exist_ok=True)# 训练集withopen(os.path.join(train_dir,"train.txt"),"w")asfile:file.write("\n".join([train_dir +"images/train/"+ image_file for image_file in train_images]))print("save train.txt success!")# 拷贝数据for item in tqdm(train_images):
  16. label_file = item.replace(".jpg",".txt")
  17. shutil.copy(os.path.join(image_dir, item), os.path.join(train_dir,"images/train/"))
  18. shutil.copy(os.path.join(label_dir, label_file), os.path.join(train_dir,"labels/train/"))# 验证集withopen(os.path.join(train_dir,"val.txt"),"w")asfile:file.write("\n".join([train_dir +"images/val/"+ image_file for image_file in val_images]))print("save val.txt success!")# 拷贝数据for item in tqdm(val_images):
  19. label_file = item.replace(".jpg",".txt")
  20. shutil.copy(os.path.join(image_dir, item), os.path.join(train_dir,"images/val/"))
  21. shutil.copy(os.path.join(label_dir, label_file), os.path.join(train_dir,"labels/val/"))if __name__ =='__main__':
  22. split_data()

在这里插入图片描述
可以在

  1. train_data

中看到拆分后的数据集格式:

在这里插入图片描述

四、训练

使用

  1. ultralytics

框架训练非常简单,仅需三行代码即可完成训练,不过在训练前需要编写

  1. YAML

配置信息,主要标记数据集的位置。

创建

  1. face.yaml

文件,写入下面内容:

  1. path: D:/pyProject/yolov10/train_data # 数据集的根目录, 建议使用绝对路径train: images/train # 训练集图像目录val: images/val # 验证集图像目录test:# test images (optional)# 分类names:0: face

注意分类中的

  1. face

就是上面标注时的标签名。

开始训练:

  1. from ultralytics import YOLO
  2. # 加载模型
  3. model = YOLO('yolov10n.pt')# 训练
  4. model.train(
  5. data='face.yaml',# 训练配置文件
  6. epochs=100,# 训练的周期
  7. imgsz=640,# 图像的大小
  8. device=[0],# 设备,如果是 cpu 则是 device='cpu'
  9. workers=0,
  10. lr0=0.0001,# 学习率
  11. batch=8,# 批次大小
  12. amp=False# 是否启用混合精度训练)

运行后可以看到打印的网络结构:

在这里插入图片描述

训练中:

在这里插入图片描述

训练结束后可以在

  1. runs

目录下面看到训练的结果:

在这里插入图片描述

其中

  1. weights

下面的就是训练后保存的模型,这里可以先看下训练时

  1. loss

的变化图:

在这里插入图片描述

五、模型测试

  1. runs\detect\train\weights

下可以看到

  1. best.pt

  1. last.pt

两个模型,表示最佳和最终模型,下面使用

  1. best.pt

模型进行测试

  1. from ultralytics import YOLO
  2. from matplotlib import pyplot as plt
  3. import os
  4. plt.rcParams['font.sans-serif']=['SimHei']# 测试图片地址
  5. base_path ="test"# 加载模型
  6. model = YOLO('runs/detect/train/weights/best.pt')for img_name in os.listdir(base_path):
  7. img_path = os.path.join(base_path, img_name)
  8. image = plt.imread(img_path)# 预测
  9. results = model.predict(image, device='cpu')
  10. boxes = results[0].boxes.xyxy
  11. confs = results[0].boxes.conf
  12. ax = plt.gca()for index, boxe inenumerate(boxes):
  13. x1, y1, x2, y2 = boxe[0], boxe[1], boxe[2], boxe[3]
  14. score = confs[index].item()
  15. ax.add_patch(plt.Rectangle((x1, y1),(x2 - x1),(y2 - y1), linewidth=2, fill=False, color='red'))
  16. plt.text(x=x1, y=y1-10, s="{:.2f}".format(score), fontsize=15, color='white',
  17. bbox=dict(facecolor='black', alpha=0.5))
  18. plt.imshow(image)
  19. plt.show()

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述


本文转载自: https://blog.csdn.net/qq_43692950/article/details/140777414
版权归原作者 小毕超 所有, 如有侵权,请联系我们删除。

“基于 YOLO V10 Fine-Tuning 训练自定义的目标检测模型”的评论:

还没有评论