0


全网最详细教程,手把书教你使用YOLOv10训练自己的数据集和推理(附YOLOv10网络结构图)


文章目录


前言

YOLOv10,由清华大学多媒体智能组织开发,是一款亳秒级实时端到端目标检测的开源模型。该模型在保持性能不变的情况下,与YOLOv9相比,延迟减少了46%,参数减少了25%,非常适合需要快速检测物体的应用,如实时视频分析、自动驾驶和智能医疗等领域。这些改进使得YOLOv10在实时物体检测领域达到了新的技术水平。
论文地址链接: YOLOv10论文
在这里插入图片描述


🎓一、YOLOv10代码下载地址

官网的源码下载地址 :链接: link

官网打不开的话,从我的网盘下载就行,链接: 源码下载
提取码: js2i

🍀🍀1.yolov10模型结构图

根据yolov10n.yaml画出yolo整体结构图,如下图所示
在这里插入图片描述


🎓二、数据集准备

🍀🍀1.数据集标注软件

数据集使用标注软件标注好,我这里推荐两个标注软件,一个是labelimg,另外一个是labelme,可以在python环境,使用pip install labelimg或者pip install labelme进行安装,看你选择哪个标注工具标注了,我使用labelimg标注工具

安装完成在终端输入命令启动标注软件
在这里插入图片描述
下面是软件界面
在这里插入图片描述
设置自动保存标注生成的标注文件
在这里插入图片描述

🍀🍀2.voc数据集格式转换

标注格式如果选择VOC格式,后面需要代码转换格式,如果选择yolo格式就不用转换,voc格式转换yolo格式代码如下:

import xml.etree.ElementTree as ET
import os, cv2
import numpy as np
from os import listdir
from os.path import join

classes =[]defconvert(size, box):
    dw =1./(size[0])
    dh =1./(size[1])
    x =(box[0]+ box[1])/2.0-1
    y =(box[2]+ box[3])/2.0-1
    w = box[1]- box[0]
    h = box[3]- box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return(x, y, w, h)defconvert_annotation(xmlpath, xmlname):withopen(xmlpath,"r", encoding='utf-8')as in_file:
        txtname = xmlname[:-4]+'.txt'
        txtfile = os.path.join(txtpath, txtname)
        tree = ET.parse(in_file)
        root = tree.getroot()
        filename = root.find('filename')
        img = cv2.imdecode(np.fromfile('{}/{}.{}'.format(imgpath, xmlname[:-4], postfix), np.uint8), cv2.IMREAD_COLOR)
        h, w = img.shape[:2]
        res =[]for obj in root.iter('object'):
            cls = obj.find('name').text
            if cls notin classes:
                classes.append(cls)
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b =(float(xmlbox.find('xmin').text),float(xmlbox.find('xmax').text),float(xmlbox.find('ymin').text),float(xmlbox.find('ymax').text))
            bb = convert((w, h), b)
            res.append(str(cls_id)+" "+" ".join([str(a)for a in bb]))iflen(res)!=0:withopen(txtfile,'w+')as f:
                f.write('\n'.join(res))if __name__ =="__main__":
    postfix ='png'# 图像后缀
    imgpath =r'E:\A-毕业设计代做数据\helmet\test\images'# 图像文件路径
    xmlpath =r'E:\A-毕业设计代做数据\helmet\test\annotations'# xml文件文件路径
    txtpath =r'E:\A-毕业设计代做数据\helmet\test\labels'# 生成的txt文件路径ifnot os.path.exists(txtpath):
        os.makedirs(txtpath, exist_ok=True)list= os.listdir(xmlpath)
    error_file_list =[]for i inrange(0,len(list)):try:
            path = os.path.join(xmlpath,list[i])if('.xml'in path)or('.XML'in path):
                convert_annotation(path,list[i])print(f'file {list[i]} convert success.')else:print(f'file {list[i]} is not xml format.')except Exception as e:print(f'file {list[i]} convert error.')print(f'error message:\n{e}')
            error_file_list.append(list[i])print(f'this file convert failure\n{error_file_list}')print(f'Dataset Classes:{classes}')

代码需要修改的地方如下:
1.postfix参数填图片的后缀,需要注意图片格式要统一,是png格式就写png,是jpg格式就写jpg
2.imgpath参数填图片所在的路径
3.xmlpath参数填标注文件的路径
4.txtpath参数填生成的yolo格式的文件
在这里插入图片描述

🍀🍀3.数据集划分

划分训练集和验证集代码如下:

import os, shutil
from sklearn.model_selection import train_test_split

val_size =0.2#test_size = 0.2
postfix ='jpg'
imgpath =r'E:\A-毕业设计代做数据\datasets\images'
txtpath =r'E:\A-毕业设计代做数据\datasets\labels'

output_train_img_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa/images/train'
output_val_img_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa/images/val'
output_train_txt_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa\labels/train'
output_val_txt_folder =r'E:\A-毕业设计代做数据\datasets\dataset_kengwa\labels/val'

os.makedirs(output_train_img_folder, exist_ok=True)
os.makedirs(output_val_img_folder, exist_ok=True)
os.makedirs(output_train_txt_folder, exist_ok=True)
os.makedirs(output_val_txt_folder, exist_ok=True)

listdir =[i for i in os.listdir(txtpath)if'txt'in i]
train, val = train_test_split(listdir, test_size=val_size, shuffle=True, random_state=0)#todo:需要test放开# train, test = train_test_split(listdir, test_size=test_size, shuffle=True, random_state=0)# train, val = train_test_split(train, test_size=val_size, shuffle=True, random_state=0)for i in train:
    img_source_path = os.path.join(imgpath,'{}.{}'.format(i[:-4], postfix))
    txt_source_path = os.path.join(txtpath, i)

    img_destination_path = os.path.join(output_train_img_folder,'{}.{}'.format(i[:-4], postfix))
    txt_destination_path = os.path.join(output_train_txt_folder, i)

    shutil.copy(img_source_path, img_destination_path)
    shutil.copy(txt_source_path, txt_destination_path)for i in val:
    img_source_path = os.path.join(imgpath,'{}.{}'.format(i[:-4], postfix))
    txt_source_path = os.path.join(txtpath, i)

    img_destination_path = os.path.join(output_val_img_folder,'{}.{}'.format(i[:-4], postfix))
    txt_destination_path = os.path.join(output_val_txt_folder, i)

    shutil.copy(img_source_path, img_destination_path)
    shutil.copy(txt_source_path, txt_destination_path)## for i in train:#     shutil.copy('{}/{}.{}'.format(imgpath, i[:-4], postfix), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/images/train/{}.{}'.format(i[:-4], postfix))#     shutil.copy('{}/{}'.format(txtpath, i), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/labels/train/{}'.format(i))## for i in val:#     shutil.copy('{}/{}.{}'.format(imgpath, i[:-4], postfix), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/images/val/{}.{}'.format(i[:-4], postfix))#     shutil.copy('{}/{}'.format(txtpath, i), r'E:\1-cheng\4-yolo-dataset-daizuo\multi-classify\bird-boat-horse-aeroplane-sheep\dataset20231219/labels/val/{}'.format(i))#todo:需要test则放开# for i in test:#     shutil.copy('{}/{}.{}'.format(imgpath, i[:-4], postfix), 'images/test/{}.{}'.format(i[:-4], postfix))#     shutil.copy('{}/{}'.format(txtpath, i), 'labels/test/{}'.format(i))

需要修改的地方如下
在这里插入图片描述
下面四个参数只需在自己电脑任意位置新建一个文件夹就行,用于存放生成的训练集和验证集,比如新建一个文件夹叫dataset_kengwa,后面的路径不用动,如下图左边的框出来的路径覆盖成你的就行
在这里插入图片描述
数据集有以下两种方式放置,都可以进行训练,常见的数据集放置是第一种,也有开源的数据集按照第二种方式放置的,我都遇见过,也能训练起来
在这里插入图片描述

🍀🍀4.修改yolo的训练配置文件

我们需要在项目下创建一个data.yaml的文件,文件名根据数据集名称取,我这里方便演示直接叫data.yaml,如下图所示
在这里插入图片描述
代码如下:

train: E:\Desktop\new-yolov9\yolotest\images\train  # train images (relative to 'path') 4 images
val: E:\Desktop\new-yolov9\yolotest\images\val  # val images (relative to 'path') 4 images

nc:2# class names
names:['dog','cat']

🎓三、YOLO环境配置教程

YOLOv10/YOLOv9/YOLOv8/YOLOv7/YOLOv5环境都是通用的,只需要安装一次就行

🍀🍀1.pytorch环境安装

手把书安装教程链接参考:链接: link

🍀🍀2.其他依赖安装

安装requirements.txt文件的环境,需要注释掉下面两行,前面的步骤已经安装了,不注释的话会覆盖前面的会安装最新版本的pytorch,所以注释掉
在这里插入图片描述

手把书安装教程链接参考:链接: link


🎓四、YOLOv10训练

(1)在根目录新建一个python文件,取名为:train.py,如果之前看过我的文章,已经新建过就不用重新新建了
在这里插入图片描述
(2)把训练代码复制到train.py文件
训练的代码如下,如果之前看过我的文章,已经复制过了就不用重新复制了,只需修改参数就行

# -*- coding: utf-8 -*-"""
@Auth : 挂科边缘
@File :train.py
@IDE :PyCharm
@Motto:学习新思想,争做新青年
@Email :[email protected]
@qq :179958974
"""import warnings
warnings.filterwarnings('ignore')from ultralytics import YOLOv10

if __name__ =='__main__':# model.load('yolov8n.pt') # 加载预训练权重,改进或者做对比实验时候不建议打开,因为用预训练模型整体精度没有很明显的提升
    model = YOLOv10(model=r'D:\2-Python\1-YOLO\YOLOv10\yolov10-main\ultralytics\cfg\models\v10\yolov10n.yaml')
    model.train(data=r'data.yaml',
                imgsz=640,
                epochs=200,
                batch=4,
                workers=0,
                device='',
                optimizer='SGD',
                close_mosaic=10,
                resume=False,
                project='runs/train',
                name='exp',
                single_cls=False,
                cache=False,)

根据你训练需求修改指定参数就行,其中圈起来的参数需要你修改的,其他参数根据自己需求选择改或者不改就行。
在这里插入图片描述
训练代码的参数解释,标蓝色的参数为常用参数:
1.model参数:该参数填入模型配置文件的路径,改进的话建议不需要预训练模型权重来训练
2.data参数:该参数可以填入训练数据集配置文件的路径
3.imgsz参数:该参数代表输入图像的尺寸,指定为 640x640 像素
4.epochs参数:该参数代表训练的轮数
5.batch参数:该参数代表批处理大小,电脑显存越大,就设置越大,根据自己电脑性能设置
6.workers参数:该参数代表数据加载的工作线程数,出现显存爆了的话可以设置为0。默认填8,可以加快训练
7.device参数:该参数代表用哪个显卡训练,留空表示自动选择可用的GPU或CPU
8.optimizer参数:该参数代表优化器类型
9.close_mosaic参数:该参数代表在多少个 epoch 后关闭 mosaic 数据增强
10.resume参数:该参数代表是否从上一次中断的训练状态继续训练。设置为False表示从头开始新的训练。如果设置为True,则会加载上一次训练的模型权重和优化器状态,继续训练。这在训练被中断或在已有模型的基础上进行进一步训练时非常有用。
11.project参数:该参数代表项目文件夹,用于保存训练结果
12.name参数:该参数代表命名保存的结果文件夹
13.single_cls参数:该参数代表是否将所有类别视为一个类别,设置为False表示保留原有类别
14.cache参数:该参数代表是否缓存数据,设置为False表示不缓存。

训练报错常见的错误:
训练显存报错,出现以下报错情况,把workers参数改为0
(1)OSError: [WinError 1455] 页面文件太小,无法完成操作。 Error loading “D:\1-ProgramFiles\Anaconda\envs\torch\lib\site-packages\torch\lib\caffe2_detectron_ops_gpu.dll” or one of its dependencies.
在这里插入图片描述
(2)RuntimeError: CUDA out of memory. Tried to allocate 2.00 MiB (GPU 0; 8.00 GiB total capacity; 530.52 MiB already allocated; 4.87 GiB free; 558.00 MiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

在这里插入图片描述

🎓五、YOLOv10推理

🍀🍀1.新建推理文件

(1)在根目录新建一个python文件,取名为:detect.py
在这里插入图片描述
(2)把推理代码复制到detect.py文件
注意注意注意:模型路径改成你自己的路径,还有预测图像也改成你自己的路径
推理的代码如下:

# -*- coding: utf-8 -*-"""
@Auth : 挂科边缘
@File :detect.py
@IDE :PyCharm
@Motto:学习新思想,争做新青年
@Email :[email protected]
@qq :179958974
"""from ultralytics import YOLOv10

# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt

model = YOLOv10(r'D:\2-Python\1-YOLO\YOLOv10\yolov10-main\yolov10n.pt')

model.predict(source=r'D:\2-Python\1-YOLO\YOLOv10\yolov10-main\ultralytics\assets', save=True)

推理代码的参数解释
1.model参数:该参数可以填入模型文件路径
2.source参数:该参数可以填入需要推理的图片或者视频路径,如果打开摄像头推理则填入0就行
3.save参数:该参数填入True,代表把推理结果保存下来,默认是不保存的,所以一般都填入True

修改完直接鼠标右击运行就行

🍀🍀2.推理结果

拿官网模型进行推理,推理成功,如下图
在这里插入图片描述
在这里插入图片描述

总结

YOLOv10训练自己数据集到此结束,后期出一期推理的教程,有问题可以留言,创作不易,请帮忙点个爱心呗,谢谢


本文转载自: https://blog.csdn.net/weixin_44779079/article/details/141350980
版权归原作者 挂科边缘 所有, 如有侵权,请联系我们删除。

“全网最详细教程,手把书教你使用YOLOv10训练自己的数据集和推理(附YOLOv10网络结构图)”的评论:

还没有评论