文章目录
前言
YOLOv10,由清华大学多媒体智能组织开发,是一款亳秒级实时端到端目标检测的开源模型。该模型在保持性能不变的情况下,与YOLOv9相比,延迟减少了46%,参数减少了25%,非常适合需要快速检测物体的应用,如实时视频分析、自动驾驶和智能医疗等领域。这些改进使得YOLOv10在实时物体检测领域达到了新的技术水平。
论文地址链接: YOLOv10论文
🎓一、YOLOv10代码下载地址
官网的源码下载地址 :链接: link
官网打不开的话,从我的网盘下载就行,链接: 源码下载
提取码: js2i
🍀🍀1.yolov10模型结构图
根据yolov10n.yaml画出yolo整体结构图,如下图所示
🎓二、数据集准备
🍀🍀1.数据集标注软件
数据集使用标注软件标注好,我这里推荐两个标注软件,一个是labelimg,另外一个是labelme,可以在python环境,使用pip install labelimg或者pip install labelme进行安装,看你选择哪个标注工具标注了,我使用labelimg标注工具
安装完成在终端输入命令启动标注软件
下面是软件界面
设置自动保存标注生成的标注文件
🍀🍀2.voc数据集格式转换
标注格式如果选择VOC格式,后面需要代码转换格式,如果选择yolo格式就不用转换,voc格式转换yolo格式代码如下:
import xml.etree.ElementTree as ET
import os, cv2
import numpy as np
from os import listdir
from os.path import join
classes =[]defconvert(size, box):
dw =1./(size[0])
dh =1./(size[1])
x =(box[0]+ box[1])/2.0-1
y =(box[2]+ box[3])/2.0-1
w = box[1]- box[0]
h = box[3]- box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return(x, y, w, h)defconvert_annotation(xmlpath, xmlname):withopen(xmlpath,"r", encoding='utf-8')as in_file:
txtname = xmlname[:-4]+'.txt'
txtfile = os.path.join(txtpath, txtname)
tree = ET.parse(in_file)
root = tree.getroot()
filename = root.find('filename')
img = cv2.imdecode(np.fromfile('{}/{}.{}'.format(imgpath, xmlname[:-4], postfix), np.uint8), cv2.IMREAD_COLOR)
h, w = img.shape[:2]
res =[]for obj in root.iter('object'):
cls = obj.find('name').text
if cls notin classes:
classes.append(cls)
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b =(float(xmlbox.find('xmin').text),float(xmlbox.find('xmax').text),float(xmlbox.find('ymin').text),float(xmlbox.find('ymax').text))
bb = convert((w, h), b)
res.append(str(cls_id)+" "+" ".join([str(a)for a in bb]))iflen(res)!=0:withopen(txtfile,'w+')as f:
f.write('\n'.join(res))if __name__ =="__main__":
postfix ='png'# 图像后缀
imgpath =r'E:\A-毕业设计代做数据\helmet\test\images'# 图像文件路径
xmlpath =r'E:\A-毕业设计代做数据\helmet\test\annotations'# xml文件文件路径
txtpath =r'E:\A-毕业设计代做数据\helmet\test\labels'# 生成的txt文件路径ifnot os.path.exists(txtpath):
os.makedirs(txtpath, exist_ok=True)list= os.listdir(xmlpath)
error_file_list =[]for i inrange(0,len(list)):try:
path = os.path.join(xmlpath,list[i])if('.xml'in path)or('.XML'in path):
convert_annotation(path,list[i])print(f'file {list[i]} convert success.')else:print(f'file {list[i]} is not xml format.')except Exception as e:print(f'file {list[i]} convert error.')print(f'error message:\n{e}')
error_file_list.append(list[i])print(f'this file convert failure\n{error_file_list}')print(f'Dataset Classes:{classes}')
代码需要修改的地方如下:
1.postfix参数填图片的后缀,需要注意图片格式要统一,是png格式就写png,是jpg格式就写jpg
2.imgpath参数填图片所在的路径
3.xmlpath参数填标注文件的路径
4.txtpath参数填生成的yolo格式的文件
🍀🍀3.数据集划分
划分训练集和验证集代码如下:
import os, shutil
from sklearn.model_selection import train_test_split
val_size =0.2#test_size = 0.2
postfix ='jpg'
imgpath =r'E:\A-毕业设计代做数据\datasets\images'
txtpath =r'E:\A-毕业设计代做数据\datasets\labels'
output_train_img_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa/images/train'
output_val_img_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa/images/val'
output_train_txt_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa\labels/train'
output_val_txt_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa\labels/val'
os.makedirs(output_train_img_folder, exist_ok=True)
os.makedirs(output_val_img_folder, exist_ok=True)
os.makedirs(output_train_txt_folder, exist_ok=True)
os.makedirs(output_val_txt_folder, exist_ok=True)
listdir =[i for i in os.listdir(txtpath)if'txt'in i]
train, val = train_test_split(listdir, test_size=val_size, shuffle=True, random_state=0)#todo:需要test放开# train, test = train_test_split(listdir, test_size=test_size, shuffle=True, random_state=0)# train, val = train_test_split(train, test_size=val_size, shuffle=True, random_state=0)for i in train:
img_source_path = os.path.join(imgpath,'{}.{}'.format(i[:-4], postfix))
txt_source_path = os.path.join(txtpath, i)
img_destination_path = os.path.join(output_train_img_folder,'{}.{}'.format(i[:-4], postfix))
txt_destination_path = os.path.join(output_train_txt_folder, i)
shutil.copy(img_source_path, img_destination_path)
shutil.copy(txt_source_path, txt_destination_path)for i in val:
img_source_path = os.path.join(imgpath,'{}.{}'.format(i[:-4], postfix))
txt_source_path = os.path.join(txtpath, i)
img_destination_path = os.path.join(output_val_img_folder,'{}.{}'.format(i[:-4], postfix))
txt_destination_path = os.path.join(output_val_txt_folder, i)
shutil.copy(img_source_path, img_destination_path)
shutil.copy(txt_source_path, txt_destination_path)## for i in train:# shutil.copy('{}/{}.{}'.format(imgpath, i[:-4], postfix), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/images/train/{}.{}'.format(i[:-4], postfix))# shutil.copy('{}/{}'.format(txtpath, i), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/labels/train/{}'.format(i))## for i in val:# shutil.copy('{}/{}.{}'.format(imgpath, i[:-4], postfix), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/images/val/{}.{}'.format(i[:-4], postfix))# shutil.copy('{}/{}'.format(txtpath, i), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/labels/val/{}'.format(i))#todo:需要test则放开# for i in test:# shutil.copy('{}/{}.{}'.format(imgpath, i[:-4], postfix), 'images/test/{}.{}'.format(i[:-4], postfix))# shutil.copy('{}/{}'.format(txtpath, i), 'labels/test/{}'.format(i))
需要修改的地方如下
下面四个参数只需在自己电脑任意位置新建一个文件夹就行,用于存放生成的训练集和验证集,比如新建一个文件夹叫dataset_kengwa,后面的路径不用动,如下图左边的框出来的路径覆盖成你的就行
数据集有以下两种方式放置,都可以进行训练,常见的数据集放置是第一种,也有开源的数据集按照第二种方式放置的,我都遇见过,也能训练起来
🍀🍀4.修改yolo的训练配置文件
我们需要在项目下创建一个data.yaml的文件,文件名根据数据集名称取,我这里方便演示直接叫data.yaml,如下图所示
代码如下:
train: E:\Desktop\new-yolov9\yolotest\images\train # train images (relative to 'path') 4 images
val: E:\Desktop\new-yolov9\yolotest\images\val # val images (relative to 'path') 4 images
nc:2# class names
names:['dog','cat']
🎓三、YOLO环境配置教程
YOLOv10/YOLOv9/YOLOv8/YOLOv7/YOLOv5环境都是通用的,只需要安装一次就行
🍀🍀1.pytorch环境安装
手把书安装教程链接参考:链接: link
🍀🍀2.其他依赖安装
安装requirements.txt文件的环境,需要注释掉下面两行,前面的步骤已经安装了,不注释的话会覆盖前面的会安装最新版本的pytorch,所以注释掉
手把书安装教程链接参考:链接: link
🎓四、YOLOv10训练
(1)在根目录新建一个python文件,取名为:train.py,如果之前看过我的文章,已经新建过就不用重新新建了
(2)把训练代码复制到train.py文件
训练的代码如下,如果之前看过我的文章,已经复制过了就不用重新复制了,只需修改参数就行
# -*- coding: utf-8 -*-"""
@Auth : 挂科边缘
@File :train.py
@IDE :PyCharm
@Motto:学习新思想,争做新青年
@Email :[email protected]
@qq :179958974
"""import warnings
warnings.filterwarnings('ignore')from ultralytics import YOLOv10
if __name__ =='__main__':# model.load('yolov8n.pt') # 加载预训练权重,改进或者做对比实验时候不建议打开,因为用预训练模型整体精度没有很明显的提升
model = YOLOv10(model=r'D:\2-Python\1-YOLO\YOLOv10\yolov10-main\ultralytics\cfg\models\v10\yolov10n.yaml')
model.train(data=r'data.yaml',
imgsz=640,
epochs=200,
batch=4,
workers=0,
device='',
optimizer='SGD',
close_mosaic=10,
resume=False,
project='runs/train',
name='exp',
single_cls=False,
cache=False,)
根据你训练需求修改指定参数就行,其中圈起来的参数需要你修改的,其他参数根据自己需求选择改或者不改就行。
训练代码的参数解释,标蓝色的参数为常用参数:
1.model参数:该参数填入模型配置文件的路径,改进的话建议不需要预训练模型权重来训练
2.data参数:该参数可以填入训练数据集配置文件的路径
3.imgsz参数:该参数代表输入图像的尺寸,指定为 640x640 像素
4.epochs参数:该参数代表训练的轮数
5.batch参数:该参数代表批处理大小,电脑显存越大,就设置越大,根据自己电脑性能设置
6.workers参数:该参数代表数据加载的工作线程数,出现显存爆了的话可以设置为0。默认填8,可以加快训练
7.device参数:该参数代表用哪个显卡训练,留空表示自动选择可用的GPU或CPU
8.optimizer参数:该参数代表优化器类型
9.close_mosaic参数:该参数代表在多少个 epoch 后关闭 mosaic 数据增强
10.resume参数:该参数代表是否从上一次中断的训练状态继续训练。设置为False表示从头开始新的训练。如果设置为True,则会加载上一次训练的模型权重和优化器状态,继续训练。这在训练被中断或在已有模型的基础上进行进一步训练时非常有用。
11.project参数:该参数代表项目文件夹,用于保存训练结果
12.name参数:该参数代表命名保存的结果文件夹
13.single_cls参数:该参数代表是否将所有类别视为一个类别,设置为False表示保留原有类别
14.cache参数:该参数代表是否缓存数据,设置为False表示不缓存。
训练报错常见的错误:
训练显存报错,出现以下报错情况,把workers参数改为0
(1)OSError: [WinError 1455] 页面文件太小,无法完成操作。 Error loading “D:\1-ProgramFiles\Anaconda\envs\torch\lib\site-packages\torch\lib\caffe2_detectron_ops_gpu.dll” or one of its dependencies.
(2)RuntimeError: CUDA out of memory. Tried to allocate 2.00 MiB (GPU 0; 8.00 GiB total capacity; 530.52 MiB already allocated; 4.87 GiB free; 558.00 MiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
🎓五、YOLOv10推理
🍀🍀1.新建推理文件
(1)在根目录新建一个python文件,取名为:detect.py
(2)把推理代码复制到detect.py文件
注意注意注意:模型路径改成你自己的路径,还有预测图像也改成你自己的路径
推理的代码如下:
# -*- coding: utf-8 -*-"""
@Auth : 挂科边缘
@File :detect.py
@IDE :PyCharm
@Motto:学习新思想,争做新青年
@Email :[email protected]
@qq :179958974
"""from ultralytics import YOLOv10
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
model = YOLOv10(r'D:\2-Python\1-YOLO\YOLOv10\yolov10-main\yolov10n.pt')
model.predict(source=r'D:\2-Python\1-YOLO\YOLOv10\yolov10-main\ultralytics\assets', save=True)
推理代码的参数解释
1.model参数:该参数可以填入模型文件路径
2.source参数:该参数可以填入需要推理的图片或者视频路径,如果打开摄像头推理则填入0就行
3.save参数:该参数填入True,代表把推理结果保存下来,默认是不保存的,所以一般都填入True
修改完直接鼠标右击运行就行
🍀🍀2.推理结果
拿官网模型进行推理,推理成功,如下图
总结
YOLOv10训练自己数据集到此结束,后期出一期推理的教程,有问题可以留言,创作不易,请帮忙点个爱心呗,谢谢
版权归原作者 挂科边缘 所有, 如有侵权,请联系我们删除。