0


YOLOv8详解 【网络结构+代码+实操】

文章目录

🚀🚀🚀
目标检测——Yolo系列(YOLOv1/2/v3/4/5/x/6/7)

在这里插入图片描述

YOLOv8 概述

YOLOv8 算法的核心特性和改动可以归结为如下:

  • 提供了一个全新的 SOTA 模型,包括 P5 640 和 P6 1280 分辨率的目标检测网络和基于 YOLACT 的实例分割模型。和 YOLOv5 一样,基于缩放系数也提供了 N/S/M/L/X 尺度的不同大小模型,用于满足不同场景需求
  • Backbone: 骨干网络和 Neck 部分可能参考了 YOLOv7 ELAN 设计思想,将 YOLOv5 的 C3 结构换成了梯度流更丰富的 C2f 结构,并对不同尺度模型调整了不同的通道数。

属于对模型结构精心微调,不再是无脑一套参数应用所有模型,大幅提升了模型性能。不过这个 C2f 模块中存在 Split 等操作对特定硬件部署没有之前那么友好了

  • Head: Head部分较yolov5而言有两大改进:1)换成了目前主流的解耦头结构(Decoupled-Head),将分类和检测头分离 2)同时也从 Anchor-Based 换成了 Anchor-Free
  • Loss :1) YOLOv8抛弃了以往的IOU匹配或者单边比例的分配方式,而是使用了Task-Aligned Assigner正负样本匹配方式。2)并引入了 Distribution Focal Loss(DFL)
  • Train:训练的数据增强部分引入了 YOLOX 中的最后 10 epoch 关闭 Mosiac 增强的操作,可以有效地提升精度

从上面可以看出,YOLOv8 主要参考了最近提出的诸如 YOLOX、YOLOv6、YOLOv7 和 PPYOLOE 等算法的相关设计,本身的创新点不多,偏向工程实践,主推的还是 ultralytics 这个框架本身。

下面将按照模型结构设计、Loss 计算、训练数据增强、训练策略和模型推理过程共 5 个部分详细介绍 YOLOv8 目标检测的各种改进,实例分割部分暂时不进行描述。

模型结构

如下图, 左侧为 YOLOv5-s,右侧为 YOLOv8-s。
在暂时不考虑 Head 情况下,对比 YOLOv5 和 YOLOv8 的 yaml 配置文件可以发现改动较小。
在这里插入图片描述
在这里插入图片描述


Backbone和Neck的具体变化
a) 第一个卷积层的 kernel 从 6x6 变成了 3x3
b) 所有的 C3 模块换成 C2f,结构如下所示,可以发现多了更多的跳层连接和额外的 Split 操作
C3C2f c)去掉了 Neck 模块中的 2 个卷积连接层

d) Backbone 中 C2f 的 block 数从 3-6-9-3 改成了 3-6-6-3
e) 查看 N/S/M/L/X 等不同大小模型,可以发现 N/S 和 L/X 两组模型只是改了缩放系数,但是 S/M/L 等骨干网络的通道数设置不一样,没有遵循同一套缩放系数。如此设计的原因应该是同一套缩放系数下的通道设置不是最优设计,YOLOv7 网络设计时也没有遵循一套缩放系数作用于所有模型


Head的具体变化
从原先的耦合头变成了解耦头,并且从 YOLOv5 的 Anchor-Based 变成了 Anchor-Free。
C3C2f
从上图可以看出,不再有之前的 objectness 分支,只有解耦的分类和回归分支,并且其回归分支使用了 Distribution Focal Loss 中提出的积分形式表示法。

Loss 计算

Loss 计算过程包括 2 个部分: 正负样本分配策略和 Loss 计算。


正负样本分配策略
现代目标检测器大部分都会在正负样本分配策略上面做文章,典型的如 YOLOX 的 simOTA、TOOD 的 TaskAlignedAssigner 和 RTMDet 的 DynamicSoftLabelAssigner,这类 Assigner 大都是动态分配策略,而 YOLOv5 采用的依然是静态分配策略。考虑到动态分配策略的优异性,YOLOv8 算法中则直接引用了 TOOD 的 TaskAlignedAssigner。
TaskAlignedAssigner 的匹配策略简单总结为: 根据分类与回归的分数加权的分数选择正样本。


Loss计算
Loss 计算包括 2 个分支: 分类和回归分支,没有了之前的 objectness 分支。
分类分支依然采用 BCE Loss
回归分支需要和 Distribution Focal Loss 中提出的积分形式表示法绑定,因此使用了 Distribution Focal Loss, 同时还使用了 CIoU Loss。3 个 Loss 采用一定权重比例加权即可。

训练数据增强

数据增强方面和 YOLOv5 差距不大,只不过引入了 YOLOX 中提出的最后 10 个 epoch 关闭 Mosaic 的操作。假设训练 epoch 是 500,其示意图如下所示:
在这里插入图片描述
考虑到不同模型应该采用的数据增强强度不一样,因此对于不同大小模型,有部分超参会进行修改,典型的如大模型会开启 MixUp 和 CopyPaste。数据增强后典型效果如下所示:
在这里插入图片描述

训练策略

YOLOv8 的训练策略和 YOLOv5 没有啥区别,最大区别就是模型的训练总 epoch 数从 300 提升到了 500,这也导致训练时间急剧增加。以 YOLOv8-S 为例,其训练策略汇总如下:

在这里插入图片描述

模型推理过程

YOLOv8 的推理过程和 YOLOv5 几乎一样,唯一差别在于前面需要对 Distribution Focal Loss 中的积分表示 bbox 形式进行解码,变成常规的 4 维度 bbox,后续计算过程就和 YOLOv5 一样了。
在这里插入图片描述
其推理和后处理过程为:

(1) bbox 积分形式转换为 4d bbox 格式
对 Head 输出的 bbox 分支进行转换,利用 Softmax 和 Conv 计算将积分形式转换为 4 维 bbox 格式

(2) 维度变换
YOLOv8 输出特征图尺度为 80x80、40x40 和 20x20 的三个特征图。Head 部分输出分类和回归共 6 个尺度的特征图。 将 3 个不同尺度的类别预测分支、bbox 预测分支进行拼接,并进行维度变换。为了后续方便处理,会将原先的通道维度置换到最后,类别预测分支 和 bbox 预测分支 shape 分别为 (b, 80x80+40x40+20x20, 80)=(b,8400,80),(b,8400,4)。

(3) 解码还原到原图尺度
分类预测分支进行 Sigmoid 计算,而 bbox 预测分支需要进行解码,还原为真实的原图解码后 xyxy 格式。

(4) 阈值过滤
遍历 batch 中的每张图,采用 score_thr 进行阈值过滤。在这过程中还需要考虑 multi_label 和 nms_pre,确保过滤后的检测框数目不会多于 nms_pre。

(5) 还原到原图尺度和 nms
基于前处理过程,将剩下的检测框还原到网络输出前的原图尺度,然后进行 nms 即可。最终输出的检测框不能多于 max_per_img。

有一个特别注意的点:YOLOv5 中采用的 Batch shape 推理策略,在 YOLOv8 推理中暂时没有开启,不清楚后面是否会开启,在 MMYOLO 中快速测试了下,如果开启 Batch shape 会涨大概 0.1~0.2。

网络模型解析

卷积神经单元(model.py)

ultralytics/nn/modules.py

文件中定义了yolov8网络中的卷积神经单元。


autopad

  • 功能: 返回pad的大小,使得padding后输出张量的大小不变。
  • 参数: - k: 卷积核(kernel)的大小。类型可能是一个int也可能是一个序列。- p: 填充(padding)的大小。默认为None。- d: 扩张率(dilation rate)的大小, 默认为1 。普通卷积的扩张率为1,空洞卷积的扩张率大于1。

假设

k

为原始卷积核大小,

d

为卷积扩张率(dilation rate),加入空洞之后的实际卷积核尺寸与原始卷积核尺寸之间的关系:

k =d(k-1)+1

通常,如果我们添加

     p
    
    
     h
    
   
  
  
   p_h
  
 
ph​行填充(大约一半在顶部,一半在底部)和

 
  
   
    
     p
    
    
     w
    
   
  
  
   p_w
  
 
pw​列填充(大约一半在左侧,一半在右侧),则输出的形状为


 
  
   
    (
   
   
    
     n
    
    
     h
    
   
   
    −
   
   
    
     k
    
    
     h
    
   
   
    +
   
   
    
     p
    
    
     h
    
   
   
    +
   
   
    1
   
   
    )
   
   
    ×
   
   
    (
   
   
    
     n
    
    
     w
    
   
   
    −
   
   
    
     k
    
    
     w
    
   
   
    +
   
   
    
     p
    
    
     w
    
   
   
    +
   
   
    1
   
   
    )
   
  
  
   (n_h-k_h+p_h+1)\times (n_w-k_w+p_w+1)
  
 
(nh​−kh​+ph​+1)×(nw​−kw​+pw​+1)

当设置

     p
    
    
     h
    
   
   
    =
   
   
    
     k
    
    
     h
    
   
   
    −
   
   
    1
   
  
  
   p_h=k_h-1
  
 
ph​=kh​−1和

 
  
   
    
     p
    
    
     w
    
   
   
    =
   
   
    
     k
    
    
     w
    
   
   
    −
   
   
    1
   
  
  
   p_w=k_w-1
  
 
pw​=kw​−1时,输入和输出具有相同的高度和宽度。

假设

p

为填充(padding)的大小(通常,

     p
    
    
     h
    
   
   
    =
   
   
    
     p
    
    
     w
    
   
   
    =
   
   
    
     p
    
    
     2
    
   
  
  
   p_h=p_w=\frac{p}{2}
  
 
ph​=pw​=2p​ )。一般来说

 
  
   
    
     k
    
    
     h
    
   
   
    =
   
   
    
     k
    
    
     w
    
   
   
    =
   
   
    k
   
  
  
   k_h=k_w=k
  
 
kh​=kw​=k,且为奇数。

则当

p=k//2

时,padding后输出张量的大小不变。

defautopad(k, p=None, d=1):# kernel(卷积核), padding(填充), dilation(扩张)# 返回pad的大小,使得padding后输出张量的shape不变if d >1:# 如果采用扩张卷积,则计算扩张后实际的kernel大小
        k = d *(k -1)+1ifisinstance(k,int)else[d *(x -1)+1for x in k]# if p isNone:
        p = k //2ifisinstance(k,int)else[x //2for x in k]# 自动padreturn p

Conv

  • 功能: 标准的卷积
  • 参数:输入通道数(c1), 输出通道数(c2), 卷积核大小(k,默认是1), 步长(s,默认是1), 填充(p,默认为None), 组(g, 默认为1), 扩张率(d,默认为1), 是否采用激活函数(act ,默认为True, 且采用SiLU为激活函数)

在这里插入图片描述

激活函数采用的是

SiLU

    SiLU
   
   
    ⁡
   
   
    (
   
   
    x
   
   
    )
   
   
    =
   
   
    x
   
   
    
     (
    
    
     
      1
     
     
      
       1
      
      
       +
      
      
       
        e
       
       
        
         −
        
        
         x
        
       
      
     
    
    
     )
    
   
  
  
   \operatorname{SiLU}(x)=x\left(\frac{1}{1+e^{-\mathrm{x}}}\right)
  
 
SiLU(x)=x(1+e−x1​)

在这里插入图片描述

classConv(nn.Module):# 标准的卷积 参数(输入通道数, 输出通道数, 卷积核大小, 步长, 填充, 组, 扩张, 激活函数)
    default_act = nn.SiLU()# 默认的激活函数def__init__(self, c1, c2, k=1, s=1, p=None, g=1, d=1, act=True):super().__init__()
        self.conv = nn.Conv2d(c1, c2, k, s, autopad(k, p, d), groups=g, dilation=d, bias=False)# 2维卷积,其中采用了自动填充函数。
        self.bn = nn.BatchNorm2d(c2)# 使得每一个batch的特征图均满足均值为0,方差为1的分布规律# 如果act=True 则采用默认的激活函数SiLU;如果act的类型是nn.Module,则采用传入的act; 否则不采取任何动作 (nn.Identity函数相当于f(x)=x,只用做占位,返回原始的输入)。
        self.act = self.default_act if act isTrueelse act ifisinstance(act, nn.Module)else nn.Identity()defforward(self, x):# 前向传播return self.act(self.bn(self.conv(x)))# 采用BatchNormdefforward_fuse(self, x):#  用于Model类的fuse函数融合 Conv + BN 加速推理,一般用于测试/验证阶段return self.act(self.conv(x))# 不采用BatchNorm

DWConv
深度可分离卷积,继承自Conv

g=math.gcd(c1, c2)

分组数是输入通道(

c1

)和输出通道(

c2

)的最大公约数。(因为分组卷积时,分组数需要能够整除输入通道和输出通道)

classDWConv(Conv):# 深度可分离卷积def__init__(self, c1, c2, k=1, s=1, d=1, act=True):# ch_in, ch_out, kernel, stride, dilation, activationsuper().__init__(c1, c2, k, s, g=math.gcd(c1, c2), d=d, act=act)

DWConvTranspose2d
带有深度分离的转置卷积,继承自

nn.ConvTranspose2d
groups=math.gcd(c1, c2)

分组数是输入通道(

c1

)和输出通道(

c2

)的最大公约数。(因为分组卷积时,分组数需要能够整除输入通道和输出通道)

classDWConvTranspose2d(nn.ConvTranspose2d):# Depth-wise transpose convolutiondef__init__(self, c1, c2, k=1, s=1, p1=0, p2=0):# 输入通道, 输出通道, 卷积核大小, 步长, padding, padding_outsuper().__init__(c1, c2, k, s, p1, p2, groups=math.gcd(c1, c2))

ConvTranspose
和Conv类似,只是把

Conv2d

换成了

ConvTranspose2d

classConvTranspose(nn.Module):# Convolution transpose 2d layer
    default_act = nn.SiLU()# default activationdef__init__(self, c1, c2, k=2, s=2, p=0, bn=True, act=True):super().__init__()
        self.conv_transpose = nn.ConvTranspose2d(c1, c2, k, s, p, bias=not bn)
        self.bn = nn.BatchNorm2d(c2)if bn else nn.Identity()
        self.act = self.default_act if act isTrueelse act ifisinstance(act, nn.Module)else nn.Identity()defforward(self, x):return self.act(self.bn(self.conv_transpose(x)))

DFL(Distribution Focal Loss)
本篇文章(https://ieeexplore.ieee.org/document/9792391)提出了GFL(了Generalized Focal Loss)。GFL具体又包括Quality Focal Loss(QFL)和Distribution Focal Loss(DFL),其中QFL用于优化分类和质量估计联合分支,DFL用于优化边框分支。

classDFL(nn.Module):# Integral module of Distribution Focal Loss (DFL) proposed in Generalized Focal Loss def__init__(self, c1=16):super().__init__()
        self.conv = nn.Conv2d(c1,1,1, bias=False).requires_grad_(False)
        x = torch.arange(c1, dtype=torch.float)
        self.conv.weight.data[:]= nn.Parameter(x.view(1, c1,1,1))
        self.c1 = c1

    defforward(self, x):
        b, c, a = x.shape  # batch, channels, anchorsreturn self.conv(x.view(b,4, self.c1, a).transpose(2,1).softmax(1)).view(b,4, a)# return self.conv(x.view(b, self.c1, 4, a).softmax(1)).view(b, 4, a)

TransformerLayer

关于

Transformer

的理解和

torch.nn.MultiheadAttention 

的用法,请参考博客《详解注意力机制和Transformer》

论文《Attention is all you need》 中提出的Transformer架构。如下图,是Transformer中的Encoder部分。
单头注意力(Attention):

    Attention
   
   
    ⁡
   
   
    (
   
   
    q
   
   
    ,
   
   
    k
   
   
    ,
   
   
    v
   
   
    )
   
   
    =
   
   
    softmax
   
   
    ⁡
   
   
    
     (
    
    
     
      
       q
      
      
       ⋅
      
      
       
        k
       
       
        T
       
      
     
     
      
       
        k
       
       
        ⋅
       
       
        d
       
       
        i
       
       
        m
       
      
     
    
    
     )
    
   
   
    ⋅
   
   
    v
   
  
  
   \operatorname{Attention}(q, k, v)=\operatorname{softmax}\left(\frac{q \cdot k^T}{\sqrt{k \cdot d i m}}\right) \cdot v
  
 
Attention(q,k,v)=softmax(k⋅dim​q⋅kT​)⋅v

多头注意力(Multihead-Attention)

    q
   
   
    ,
   
   
    k
   
   
    ,
   
   
    v
   
  
  
   q, k, v
  
 
q,k,v 均是长度 

 
  
   
    c
   
  
  
   c
  
 
c 的向量,单头注意力也是长度 

 
  
   
    c
   
  
  
   \mathrm{c}
  
 
c 的向量, 

 
  
   
    n
   
  
  
   \mathrm{n}
  
 
n 个单头注意力拼接后得到 长度 

 
  
   
    n
   
   
    c
   
  
  
   \mathrm{nc}
  
 
nc 的行向量。经过线性层运算后再得到长度 

 
  
   
    c
   
  
  
   \mathrm{c}
  
 
c 的向量。

前馈神经网络(Feed-Forward Networks)

    FFN
   
   
    ⁡
   
   
    (
   
   
    x
   
   
    )
   
   
    =
   
   
    max
   
   
    ⁡
   
   
    
     (
    
    
     0
    
    
     ,
    
    
     
      
       x
      
      
       W
      
     
     
      1
     
    
    
     +
    
    
     
      b
     
     
      1
     
    
    
     )
    
   
   
    
     W
    
    
     2
    
   
   
    +
   
   
    
     b
    
    
     2
    
   
  
  
   \operatorname{FFN}(\mathrm{x})=\max \left(0, \mathrm{xW}_1+\mathrm{b}_1\right) \mathrm{W}_2+\mathrm{b}_2
  
 
FFN(x)=max(0,xW1​+b1​)W2​+b2​

Add&Normalize : 残差连接和层归一化。
在这里插入图片描述

我们可以发现它和yolo中的TransformerLayer部分只是少了层规范化(LayerNorm),以及在Feed-Forward Networks 中只采用了两个不带偏置线性层,且没有采用激活函数。
在这里插入图片描述

TransformerLayer代码实现如下:

classTransformerLayer(nn.Module):# Transformer layer  (LayerNorm layers removed for better performance)def__init__(self, c, num_heads):# c: 词特征向量的大小  num_heads 检测头的个数。super().__init__()
        self.q = nn.Linear(c, c, bias=False)# 计算query, in_features=out_features=c
        self.k = nn.Linear(c, c, bias=False)# 计算key
        self.v = nn.Linear(c, c, bias=False)# 计算value
        self.ma = nn.MultiheadAttention(embed_dim=c, num_heads=num_heads)# 多头注意力机制
        self.fc1 = nn.Linear(c, c, bias=False)
        self.fc2 = nn.Linear(c, c, bias=False)defforward(self, x):
        x = self.ma(self.q(x), self.k(x), self.v(x))[0]+ x  # 多头注意力机制+残差连接
        x = self.fc2(self.fc1(x))+ x  # 两个全连接层+ 残差连接return x

如果输入是

x

,x的大小是

(s,n,c)

。 其中

n

是batch size,

s

是源序列长度,

c

是词特征向量的大小(embed_dim)。
然后x分别通过3个

Linear层

(线性层的结构相同,但是可学习参数不同)计算得到键

k

、查询

q

、值

v

。因为线性层的输入特征数和输出特征数均等于c, 所以k,q,v的大小也是

(s,n,c)


接着,把k、q、v作为参数输入到多头注意力

ma

中,返回两个结果

attn_output

(注意力机制的输出)和

attn_output_weights

(注意力机制的权重)。在这里,我们只需要注意力机制的输出就可以,因此,我们取索引0

self.ma(self.q(x), self.k(x), self.v(x))[0]

,它的大小是

(s,n,c)

+x

表示残差连接,不改变x的形状。

self.fc2(self.fc1(x))

表示经过两个全连接层,输出大小是

(s,n,c)

+x

表示残差连接,不改变x的形状。因此最终输出的形状大小和输入的形状一样。


Transformer Block
TransformerBlock是把若干个TransformerLayer串联起来。
对于图像数据而言,输入数据形状是

[batch, channel, height, width]

,变换成

[height × width, batch, channel]

height × width

把图像中各个像素点看作一个单词,其对应通道的信息连在一起就是词向量。

channel

就是词向量的长度。
在这里插入图片描述

TransformerBlock的实现代码如下:

classTransformerBlock(nn.Module):def__init__(self, c1, c2, num_heads, num_layers):super().__init__()
        self.conv =Noneif c1 != c2:
            self.conv = Conv(c1, c2)
        self.linear = nn.Linear(c2, c2)# learnable position embedding
        self.tr = nn.Sequential(*(TransformerLayer(c2, num_heads)for _ inrange(num_layers)))
        self.c2 = c2

    defforward(self, x):# x:(b,c1,w0,h0)if self.conv isnotNone:
            x = self.conv(x)# x:(b,c2,w,h)
        b, _, w, h = x.shape
        p = x.flatten(2).permute(2,0,1)# flatten后:(b,c2,w*h)  p: (w*h,b,c2)    # linear后: (w*h,b,c2)   tr后: (w*h,b,c2)   permute后: (b,c2,w*h)  reshape后:(b,c2,w,h)return self.tr(p + self.linear(p)).permute(1,2,0).reshape(b, self.c2, w, h)

1)输入的

x

大小为

(b,c1,w,h)

。其中

b

为batch size,

c1

是输入通道数大小,

w

h

分别表示图像的宽和高。
2)经过Conv层:Conv层中的2d卷积,卷积核大小是1x1, 步长为1,无填充,扩张率为1。因此不改变w和h, 只改变输出通道数,形状变为

(b,c2,w,h)

。Conv层中的BN和SiLU不改变形状大小。输出的x大小为

(b,c2,w,h)

3)对x进行变换得到

p

: x.flatten(2)后,大小变为

(b,c2,w*h) 

permute(2, 0, 1)后,p的大小为

(w*h,b,c2)
  1. 将p输入到线性层后,因为线性层的输入特征数和输出特征数相等,因此输出的大小为
    (w*h,b,c2)
    
+p

进行残差连接后,大小不变,仍为

(w*h,b,c2)
  1. 然后将上一步的结果输入到
    num_layers
    
    个TransformerLayer中。
    w*h
    
    相当于序列长度,
    b
    
    是批量的大小,
    c2
    
    相当于词嵌入特征长度。每个TransformerLayer的输入和输出的大小不变。经过若干个TransformerLayer后,大小是
    (w*h,b,c2)
    

    6)permute(1, 2, 0)后: 形状变为
    (b,c2,w*h) 
    
reshape(b, self.c2, w, h)

后:

(b,c2,w,h)

Bottleneck
先使用 3x3 卷积降维,剔除冗余信息;再使用 3×3 卷积升维。
在这里插入图片描述

classBottleneck(nn.Module):# Standard bottleneckdef__init__(self, c1, c2, shortcut=True, g=1, k=(3,3), e=0.5):# ch_in, ch_out, shortcut, groups, kernels, expandsuper().__init__()
        c_ =int(c2 * e)# hidden channels
        self.cv1 = Conv(c1, c_, k[0],1)# 输入通道: c1, 输出通道:c_ , 卷积核:3x3, 步长1
        self.cv2 = Conv(c_, c2, k[1],1, g=g)# 输入通道:c_ , 输出通道c2, 卷积核:3x3, 步长1
        self.add = shortcut and c1 == c2  # 当传入的shortcut参数为true,且c1和c2相等时,则使用残差连接。defforward(self, x):return x + self.cv2(self.cv1(x))if self.add else self.cv2(self.cv1(x))

第一层卷积,输入通道:

c1

, 输出通道:

c_

, 卷积核:3x3, 步长1
第一层卷积,输入通道:

c_

, 输出通道:

c2

, 卷积核:3x3, 步长1
其中

    c
   
   
    _
   
   
    =
   
   
    
     
      c
     
     
      2
     
    
    
     2
    
   
  
  
   c\_=\frac{c_2}{2}
  
 
c_=2c2​​ 。当c1和c2相等时,采用残差连接。

BottleneckCSP

详细请参考CSPNet的论文和源码。
论文《CSPNet: A New Backbone that can Enhance Learning Capability of CNN》
源码https://github.com/WongKinYiu/CrossStagePartialNetworks

在这里插入图片描述

classBottleneckCSP(nn.Module):# CSP Bottleneck https://github.com/WongKinYiu/CrossStagePartialNetworksdef__init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):# ch_in, ch_out, number, shortcut, groups, expansionsuper().__init__()  
        c_ =int(c2 * e)# hidden channels# 输出x的大小是(b,c1,w,h)
        self.cv1 = Conv(c1, c_,1,1)# cv1的大小为(b,c_,w,h)
        self.cv2 = nn.Conv2d(c1, c_,1,1, bias=False)# cv2的大小为(b,c_,w,h)
        self.cv3 = nn.Conv2d(c_, c_,1,1, bias=False)# m通过Conv2d,变成cv3,大小是(b,c_,w,h)
        self.cv4 = Conv(2* c_, c2,1,1)
        self.bn = nn.BatchNorm2d(2* c_)# applied to cat(cv2, cv3)
        self.act = nn.SiLU()
        self.m = nn.Sequential(*(Bottleneck(c_, c_, shortcut, g, e=1.0)for _ inrange(n)))# cv1通过n个串联的bottleneck,变成m,大小为(b,c_,w,h)defforward(self, x):
        y1 = self.cv3(self.m(self.cv1(x)))# (b,c_,w,h)
        y2 = self.cv2(x)# (b,c_,w,h)return self.cv4(self.act(self.bn(torch.cat((y1, y2),1))))# cat后:(b,2*c_,w,h) 返回cv4: (b,c2,w,h)

1)输出x的大小是

(b,c1,w,h)

, 然后有两条计算路径分别计算得到y1和y2。

y1

的计算路径:先x通过cv1,大小变成

(b,c_,w,h)

。cv1通过n个串联的bottleneck,变成m,大小为

(b,c_,w,h)

。m通过cv3, 得到y1, 大小是

(b,c_,w,h)
y2

的计算路径:x通过cv2得到y2,大小是

(b,c_,w,h)

2)y1和y2在

dim=1

处连接, 大小是

(b,2*c_,w,h)

, 然后再通过BN和SiLU,大小不变。
3)最终,通过cv4, 返回结果的大小是

(b,c2,w,h)

C3
与 BottleneckCSP 类似,但少了 1 个 Conv、1 个 BN、1 个 Act,运算量更少。总共只有3次卷积(cv1,cv2,cv3)。

在这里插入图片描述

classC3(nn.Module):# CSP Bottleneck with 3 convolutionsdef__init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):# ch_in, ch_out, number, shortcut, groups, expansionsuper().__init__()
        c_ =int(c2 * e)# hidden channels
        self.cv1 = Conv(c1, c_,1,1)
        self.cv2 = Conv(c1, c_,1,1)
        self.cv3 = Conv(2* c_, c2,1)# optional act=FReLU(c2)
        self.m = nn.Sequential(*(Bottleneck(c_, c_, shortcut, g, e=1.0)for _ inrange(n)))defforward(self, x):return self.cv3(torch.cat((self.m(self.cv1(x)), self.cv2(x)),1))

C2
C2只有两个卷积(cv1,cv2)的CSP Bottleneck。
在这里插入图片描述

classC2(nn.Module):# CSP Bottleneck with 2 convolutionsdef__init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):# ch_in, ch_out, number, shortcut, groups, expansionsuper().__init__()# 假设输入的x大小是(b,c1,w,h)
        self.c =int(c2 * e)# hidden channels e=0.5,对输出通道进行平分。
        self.cv1 = Conv(c1,2* self.c,1,1)# cv1的大小是(b,c2,w,h)
        self.cv2 = Conv(2* self.c, c2,1)# optional act=FReLU(c2)# self.attention = ChannelAttention(2 * self.c)  # or SpatialAttention()   #此处可以使用空间注意力或者跨通道的注意力机制。
        self.m = nn.Sequential(*(Bottleneck(self.c, self.c, shortcut, g, k=((3,3),(3,3)), e=1.0)for _ inrange(n)))# a通过n个串联的Bottleneck后的到m,m的大小是(b,c,w,h)defforward(self, x):
        a, b = self.cv1(x).split((self.c, self.c),1)# 对cv进行在维度1进行平分,a和b的大小都是(b,c,w,h)return self.cv2(torch.cat((self.m(a), b),1))# 把m和b在维度1进行cat后,大小是(b,c2,w,h)。最终通过cv2,大小是(b,c2,w,h)

1)输出x的大小是

(b,c1,w,h)

, 通过Conv层,得到cv1, cv1的大小是

(b,c2,w,h)
  1. 然后再dim=1的维度上对cv1进行分割,a和b的大小都是

    (b,c2/2,w,h)
    

  2. a通过n个串联的Bottleneck后的到m,m的大小是

    (b,c,w,h)
    
  3. 把m和b在维度1进行cat后,大小是

    (b,c2,w,h)
    

    。最终m通过cv2,输出的大小是

    (b,c2,w,h)
    

C2f
C2f与C2相比,每个Bottleneck的输出都会被Concat到一起。
在这里插入图片描述

classC2f(nn.Module):# CSP Bottleneck with 2 convolutionsdef__init__(self, c1, c2, n=1, shortcut=False, g=1, e=0.5):# ch_in, ch_out, number, shortcut, groups, expansionsuper().__init__()# 假设输入的x大小是(b,c1,w,h)
        self.c =int(c2 * e)# hidden channels
        self.cv1 = Conv(c1,2* self.c,1,1)# cv1的大小是(b,c2,w,h)
        self.cv2 = Conv((2+ n)* self.c, c2,1)# optional act=FReLU(c2)
        self.m = nn.ModuleList(Bottleneck(self.c, self.c, shortcut, g, k=((3,3),(3,3)), e=1.0)for _ inrange(n))# n个Bottleneck组成的ModuleList,可以把m看做是一个可迭代对象defforward(self, x):
        y =list(self.cv1(x).split((self.c, self.c),1))# cv1的大小是(b,c2,w,h),对cv1在维度1等分成两份(假设分别是a和b),a和b的大小均是(b,c2/2,w,h)。此时y=[a,b]。
        y.extend(m(y[-1])for m in self.m)# 然后对列表y中的最后一个张量b输入到ModuleList中的第1个bottleneck里,得到c,c的大小是(b,c2/2,w,h)。然后把c也加入y中。此时y=[a,b,c]# 重复上述操作n次(因为是n个bottleneck),最终得到的y列表中一共有n+2个元素。return self.cv2(torch.cat(y,1))# 对列表y中的张量在维度1进行连接,得到的张量大小是(b,(n+2)*c2/2,w,h)。# 最终通过cv2,输出张量的大小是(b,c2,w,h)

1)cv1的大小是

(b,c2,w,h)

,对cv1在维度1等分成两份(假设分别是a和b),a和b的大小均是

(b,c2/2,w,h)

。此时y=[a,b]。
2)然后对列表y中的最后一个张量b输入到ModuleList中的第1个bottleneck里,得到c,c的大小是

(b,c2/2,w,h)

。然后把c也加入y中。此时y=[a,b,c]。
3)上述步骤重复上述操作n次(因为是n个bottleneck),最终得到的y列表中一共有n+2个元素。
4)对列表y中的张量在维度1进行连接,得到的张量大小是

(b,(n+2)*c2/2,w,h)


5)最终通过cv2,输出张量的大小是

(b,c2,w,h)

ChannelAttention
通道注意力模型: 通道维度不变,压缩空间维度。该模块关注输入图片中有意义的信息。
在这里插入图片描述

classChannelAttention(nn.Module):# Channel-attention module https://github.com/open-mmlab/mmdetection/tree/v3.0.0rc1/configs/rtmdetdef__init__(self, channels:int)->None:super().__init__()
        self.pool = nn.AdaptiveAvgPool2d(1)# 自适应平均池化后,大小为(b,c,1,1)
        self.fc = nn.Conv2d(channels, channels,1,1,0, bias=True)
        self.act = nn.Sigmoid()defforward(self, x: torch.Tensor)-> torch.Tensor:return x * self.act(self.fc(self.pool(x)))

1)假设输入的数据大小是

(b,c,w,h)

2)通过自适应平均池化使得输出的大小变为

(b,c,1,1)

3)通过2d卷积和sigmod激活函数后,大小是

(b,c,1,1)

4)将上一步输出的结果和输入的数据相乘,输出数据大小是

(b,c,w,h)


SpatialAttention
空间注意力模块:空间维度不变,压缩通道维度。该模块关注的是目标的位置信息。
在这里插入图片描述

classSpatialAttention(nn.Module):# Spatial-attention moduledef__init__(self, kernel_size=7):super().__init__()assert kernel_size in(3,7),'kernel size must be 3 or 7'# kernel size 的大小必须是3或者7
        padding =3if kernel_size ==7else1# 当kernel_size是7时,padding=3; 当kernel_size是3时,padding=1
        self.cv1 = nn.Conv2d(2,1, kernel_size, padding=padding, bias=False)
        self.act = nn.Sigmoid()defforward(self, x):return x * self.act(self.cv1(torch.cat([torch.mean(x,1, keepdim=True), torch.max(x,1, keepdim=True)[0]],1)))

1) 假设输入的数据x是

(b,c,w,h)

,并进行两路处理。
2)其中一路在通道维度上进行求平均值,得到的大小是

(b,1,w,h)

;另外一路也在通道维度上进行求最大值,得到的大小是

(b,1,w,h)


3) 然后对上述步骤的两路输出进行连接,输出的大小是

(b,2,w,h)

4)经过一个二维卷积网络,把输出通道变为1,输出大小是

(b,1,w,h)

4)将上一步输出的结果和输入的数据x相乘,最终输出数据大小是

(b,c,w,h)


CBAM
CBAM就是把ChannelAttention和SpatialAttention串联在一起。
在这里插入图片描述

classCBAM(nn.Module):# Convolutional Block Attention Moduledef__init__(self, c1, kernel_size=7):# ch_in, kernelssuper().__init__()
        self.channel_attention = ChannelAttention(c1)
        self.spatial_attention = SpatialAttention(kernel_size)defforward(self, x):return self.spatial_attention(self.channel_attention(x))

C1
总共只有3次卷积(cv1,cv2,cv3)的Bottleneck。
在这里插入图片描述

classC1(nn.Module):# CSP Bottleneck with 1 convolutiondef__init__(self, c1, c2, n=1):# ch_in, ch_out, numbersuper().__init__()
        self.cv1 = Conv(c1, c2,1,1)
        self.m = nn.Sequential(*(Conv(c2, c2,3)for _ inrange(n)))defforward(self, x):
        y = self.cv1(x)return self.m(y)+ y

1)假设输入的数据是

(b,c1,w,h)
  1. 首先通过一个Conv块,得到

    y
    

    , 大小为

    (b,c2,w,h)
    
  2. 然后让y通过n个3x3的Conv块,得到

    m
    
  3. 最后让m和y相加。


C3x
C3x 继承自C3, 变换是Bottleneck中的卷积核大小变为(1,3)和(3,3)

classC3x(C3):# C3 module with cross-convolutionsdef__init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):super().__init__(c1, c2, n, shortcut, g, e)
        self.c_ =int(c2 * e)
        self.m = nn.Sequential(*(Bottleneck(self.c_, self.c_, shortcut, g, k=((1,3),(3,1)), e=1)for _ inrange(n)))

C3TR
C3TR继承自C3, n 个 Bottleneck 更换为 1 个 TransformerBlock。
在这里插入图片描述

classC3TR(C3):# C3 module with TransformerBlock()def__init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):super().__init__(c1, c2, n, shortcut, g, e)
        c_ =int(c2 * e)
        self.m = TransformerBlock(c_, c_,4, n)# num_heads=4, num_layers=n

SPP
空间金字塔模型:三个MaxPool 并行连接,kernel size分别为

5 * 5

9 * 9

13 * 13

《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》

在这里插入图片描述

classSPP(nn.Module):# Spatial Pyramid Pooling (SPP) layer https://arxiv.org/abs/1406.4729def__init__(self, c1, c2, k=(5,9,13)):super().__init__()
        c_ = c1 //2# hidden channels
        self.cv1 = Conv(c1, c_,1,1)
        self.cv2 = Conv(c_ *(len(k)+1), c2,1,1)
        self.m = nn.ModuleList([nn.MaxPool2d(kernel_size=x, stride=1, padding=x //2)for x in k])defforward(self, x):
        x = self.cv1(x)with warnings.catch_warnings():
            warnings.simplefilter('ignore')# suppress torch 1.9.0 max_pool2d() warningreturn self.cv2(torch.cat([x]+[m(x)for m in self.m],1))

SPPF
这个是YOLOv5作者Glenn Jocher基于SPP提出的,速度较SPP快很多,所以叫SPP-Fast。
三个MaxPool 串行连接,kerner size都是

5*5

。效果等价于SPP,但是运算量从原来的

     5
    
    
     2
    
   
   
    +
   
   
    
     9
    
    
     2
    
   
   
    +
   
   
    1
   
   
    
     3
    
    
     2
    
   
   
    =
   
   
    275
   
  
  
   5^2+9^2+13^2=275
  
 
52+92+132=275 减少到了

 
  
   
    3
   
   
    ⋅
   
   
    
     5
    
    
     2
    
   
   
    =
   
   
    75
   
  
  
   3\cdot 5^2=75
  
 
3⋅52=75

在这里插入图片描述
池化尺寸等价于SPP中kernel size分别为

5 * 5

9 * 9

13 * 13

的池化层并行连接。

classSPPF(nn.Module):# Spatial Pyramid Pooling - Fast (SPPF) layer for YOLOv5 by Glenn Jocherdef__init__(self, c1, c2, k=5):# equivalent to SPP(k=(5, 9, 13))super().__init__()
        c_ = c1 //2# hidden channels
        self.cv1 = Conv(c1, c_,1,1)
        self.cv2 = Conv(c_ *4, c2,1,1)
        self.m = nn.MaxPool2d(kernel_size=k, stride=1, padding=k //2)defforward(self, x):
        x = self.cv1(x)with warnings.catch_warnings():
            warnings.simplefilter('ignore')# suppress torch 1.9.0 max_pool2d() warning
            y1 = self.m(x)
            y2 = self.m(y1)return self.cv2(torch.cat((x, y1, y2, self.m(y2)),1))

Focus
Focus模块在v5中是图片进入backbone前,对图片进行切片操作,具体操作是在一张图片中每隔一个像素拿到一个值,类似于邻近下采样,这样就拿到了四张图片,四张图片互补,长的差不多,但是没有信息丢失,这样一来,将W、H信息就集中到了通道空间,输入通道扩充了4倍,即拼接起来的图片相对于原先的RGB三通道模式变成了12个通道,最后将得到的新图片再经过卷积操作,最终得到了没有信息丢失情况下的二倍下采样特征图。
例如: 原始的640 × 640 × 3的图像输入Focus结构,采用切片操作,先变成320 × 320 × 12的特征图,再经过一次卷积操作,最终变成320 × 320 × 32的特征图。切片操作如下:
在这里插入图片描述
在这里插入图片描述

classFocus(nn.Module):# Focus wh information into c-spacedef__init__(self, c1, c2, k=1, s=1, p=None, g=1, act=True):# ch_in, ch_out, kernel, stride, padding, groupssuper().__init__()
        self.conv = Conv(c1 *4, c2, k, s, p, g, act=act)# self.contract = Contract(gain=2)defforward(self, x):# x(b,c,w,h) -> y(b,4c,w/2,h/2)return self.conv(torch.cat((x[...,::2,::2], x[...,1::2,::2], x[...,::2,1::2], x[...,1::2,1::2]),1))# return self.conv(self.contract(x))

假设x的定义如下:
在这里插入图片描述
第一个切片:

x[..., ::2, ::2]

在这里插入图片描述

第二个切片:

x[..., 1::2, ::2]

在这里插入图片描述

第三个切片:

x[..., ::2, 1::2]

在这里插入图片描述

第四个切片:

x[..., 1::2, 1::2]

在这里插入图片描述
把上述四个切片连接在一起, 可以看到w,h是原始数据的一半,通道数变为原来的四倍。
在这里插入图片描述


GhostConv

Ghost卷积来自华为诺亚方舟实验室,《GhostNet: More Features from Cheap Operations》发表于2020年的CVPR上。提供了一个全新的Ghost模块,旨在通过廉价操作生成更多的特征图。

原理如下图所示:
在这里插入图片描述

Ghost Module分为两步操作来获得与普通卷积一样数量的特征图:
Step1:少量卷积(比如正常用128个卷积核,这里就用64个,从而减少一半的计算量);
Step2:cheap operations,用图中的Φ表示,Φ是诸如33、55的卷积,并且是逐个特征图的进行卷积(Depth-wise convolutional,深度卷积)。
在这里插入图片描述

classGhostConv(nn.Module):# Ghost Convolution https://github.com/huawei-noah/ghostnetdef__init__(self, c1, c2, k=1, s=1, g=1, act=True):# ch_in, ch_out, kernel, stride, groupssuper().__init__()
        c_ = c2 //2# hidden channels
        self.cv1 = Conv(c1, c_, k, s,None, g, act=act)
        self.cv2 = Conv(c_, c_,5,1,None, c_, act=act)# 分组数=c_=通道数,进行point-wise的深度分离卷积defforward(self, x):
        y = self.cv1(x)return torch.cat((y, self.cv2(y)),1)

GhostBottleneck
在这里插入图片描述

classGhostBottleneck(nn.Module):# Ghost Bottleneck https://github.com/huawei-noah/ghostnetdef__init__(self, c1, c2, k=3, s=1):# ch_in, ch_out, kernel, stridesuper().__init__()
        c_ = c2 //2
        self.conv = nn.Sequential(
            GhostConv(c1, c_,1,1),# 卷积核的大小是1*1,属于point-wise的深度可分离卷积
            DWConv(c_, c_, k, s, act=False)if s ==2else nn.Identity(),# 输入通道数和输出通道数相等,属于depth-wise的深度可分离卷积
            GhostConv(c_, c2,1,1, act=False))#point-wise的深度可分离卷积,且不采用偏置项。
        self.shortcut = nn.Sequential(DWConv(c1, c1, k, s, act=False), Conv(c1, c2,1,1,
                                                                            act=False))if s ==2else nn.Identity()defforward(self, x):return self.conv(x)+ self.shortcut(x)

C3Ghost
C3Ghost继承自C3, Bottleneck更换为GhostBottleneck
在这里插入图片描述

classC3Ghost(C3):# C3 module with GhostBottleneck()def__init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):super().__init__(c1, c2, n, shortcut, g, e)
        c_ =int(c2 * e)# hidden channels
        self.m = nn.Sequential(*(GhostBottleneck(c_, c_)for _ inrange(n)))

Concat
当dimension=1时,将多张相同尺寸的图像在通道维度维度上进行拼接。

classConcat(nn.Module):# Concatenate a list of tensors along dimensiondef__init__(self, dimension=1):super().__init__()
        self.d = dimension

    defforward(self, x):return torch.cat(x, self.d)

Yolov8实操

快速入门

环境配置


新建虚拟环境

# 新建名为pytorch的虚拟环境,python=3.8
conda create -n pytorch python=3.8 -y
# 查看当前存在的虚拟环境
conda env list
# 进入pytorch
conda activate pytorch

安装pytorch和torchvision

pip install torch-1.9.0+cu102-cp38-cp38-linux_x86_64.whl
pip install torchvision-0.10.0+cu102-cp38-cp38-linux_x86_64.whl

安装ultralytics

git clone https://github.com/ultralytics/ultralytics
cd ultralytics
pip install -e .

数据集准备

数据集制作参考: YOLO格式数据集制作

# 训练/验证/测试 数据
train:/data/zyw/project/dataset/finalTrafficLightDataset/train/images
val:/data/zyw/project/dataset/finalTrafficLightDataset/val/images
test:/data/zyw/project/dataset/finalTrafficLightDataset/WPIDataset/images
# 类别个数
nc:12# 类别名称
names:["greenCircle","yellowCircle","redCircle","greenLeft","yellowLeft","redLeft","greenRight","yellowRight","redRight","greenForward","yellowForward","redForward"]

模型的训练/验证/预测/导出

使用CLI

如果你想对模型进行训练、验证或运行推断,并且不需要对代码进行任何修改,那么使用YOLO命令行接口是最简单的入门方法。

YOLO命令行界面(command line interface, CLI) 方便在各种任务和版本上训练、验证或推断模型。CLI不需要定制或代码,可以使用yolo命令从终端运行所有任务。

  • 语法yolo task=detect mode=train model=yolov8n.yaml args... classify predict yolov8n-cls.yaml args... segment val yolov8n-seg.yaml args... export yolov8n.pt format=onnx args...注意:参数不需要’- -'前缀。这些是为后面介绍的特殊命令保留的
  • 训练示例yolo task=detect mode=train model=yolov8n.pt data=coco128.yaml device=0
  • 多GPU训练示例yolo task=detect mode=train model=yolov8n.pt data=coco128.yaml device=\'0,1,2,3\'
  • 重写默认的配置参数# 语法yolo task=... mode=... arg=val# 例子: 进行10个epoch的检测训练,learning_rate为0.01yolo task=detect mode=train epochs=10 lr0=0.01
  • 重写默认配置文件# 可以在当前工作目录下创建一个默认配置文件的副本yolo task=init# 然后可以使用cfg=name.yaml命令来传递新的配置文件yolo cfg=default.yaml

使用python

允许用户在Python项目中轻松使用YOLOv8。它提供了加载和运行模型以及处理模型输出的函数。该界面设计易于使用,以便用户可以在他们的项目中快速实现目标检测。

训练

  • 从预训练模型开始训练
from ultralytics import YOLO

model = YOLO("yolov8n.pt")# pass any model type
model.train(epochs=5)
  • 从头开始训练
from ultralytics import YOLO

model = YOLO("yolov8n.yaml")
model.train(data="coco128.yaml", epochs=5)

验证

  • 训练后验证
from ultralytics import YOLO

  model = YOLO("yolov8n.yaml")
  model.train(data="coco128.yaml", epochs=5)
  model.val()# It'll automatically evaluate the data you trained.
  • 单独验证
from ultralytics import YOLO

  model = YOLO("model.pt")# 如果不设置数据的话,就使用model.pt中的data yaml文件
  model.val()# 或者直接设置需要验证的数据。
  model.val(data="coco128.yaml")

预测

  • 从源文件中预测
from ultralytics import YOLO

model = YOLO("model.pt")
model.predict(source="0")# accepts all formats - img/folder/vid.*(mp4/format). 0 for webcam
model.predict(source="folder", show=True)# Display preds. Accepts all yolo predict arguments
  • 返回结果
from ultralytics import YOLO

model = YOLO("model.pt")
outputs = model.predict(source="0", return_outputs=True)# treat predict as a Python generatorfor output in outputs:# each output here is a dict.# for detectionprint(output["det"])# np.ndarray, (N, 6), xyxy, score, cls# for segmentationprint(output["det"])# np.ndarray, (N, 6), xyxy, score, clsprint(output["segment"])# List[np.ndarray] * N, bounding coordinates of masks# for classifyprint(output["prob"])# np.ndarray, (num_class, ), cls prob

使用训练器

YOLO模型类是Trainer类的高级包装器。每个YOLO任务都有自己的从BaseTrainer继承来的训练器。

from ultralytics.yolo import v8 import DetectionTrainer, DetectionValidator, DetectionPredictor

# trainer
trainer = DetectionTrainer(overrides={})
trainer.train()
trained_model = trainer.best

# Validator
val = DetectionValidator(args=...)
val(model=trained_model)# predictor
pred = DetectionPredictor(overrides={})
pred(source=SOURCE, model=trained_model)# resume from last weight
overrides["resume"]= trainer.last
trainer = detect.DetectionTrainer(overrides=overrides)

多任务支持

yolov8支持检测、分割、分类 三种任务。
在这里插入图片描述

检测

物体检测是一项涉及识别图像或视频流中物体的位置和类别的任务。

对象检测器的输出是一组包围图像中的对象的包围框,以及每个框的类标签和置信度分数。当你需要识别场景中感兴趣的物体,但不需要知道物体的确切位置或它的确切形状时,物体检测是一个很好的选择。

YOLOv8检测模型没有后缀,是默认的YOLOv8模型,即yolov8n.pt,并在COCO上进行预训练。

训练

在COCO128数据集上训练YOLOv8n 100个epoch,图像大小为640。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.yaml")# build a new model from scratch
model = YOLO("yolov8n.pt")# load a pretrained model (recommended for training)# Train the model
results = model.train(data="coco128.yaml", epochs=100, imgsz=640)
  • CLI
yolo task=detect mode=train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

验证

验证训练YOLOv8n模型在COCO128数据集上的准确性。不需要传递参数,因为模型保留了它的训练数据和参数作为模型属性。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")# load an official model
model = YOLO("path/to/best.pt")# load a custom model# Validate the model
results = model.val()# no arguments needed, dataset and settings remembered
  • CLI
yolo task=detect mode=val model=yolov8n.pt  # val official model
yolo task=detect mode=val model=path/to/best.pt  # val custom model

预测

使用经过训练的YOLOv8n模型对图像进行预测。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")# load an official model
model = YOLO("path/to/best.pt")# load a custom model# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")# predict on an image
  • CLI
yolo task=detect mode=predict model=yolov8n.pt source="https://ultralytics.com/images/bus.jpg"# predict with official model
yolo task=detect mode=predict model=path/to/best.pt source="https://ultralytics.com/images/bus.jpg"# predict with custom model

导出

导出YOLOv8n模型到不同的格式,如ONNX, CoreML等。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")# load an official model
model = YOLO("path/to/best.pt")# load a custom trained# Export the model
model.export(format="onnx")
  • CLI
yolo mode=export model=yolov8n.pt format=onnx  # export official model
yolo mode=export model=path/to/best.pt format=onnx  # export custom trained model

可用的YOLOv8导出格式包括:
Formatformat=Modelhttps://pytorch.org/-yolov8n.pthttps://pytorch.org/docs/stable/jit.htmltorchscriptyolov8n.torchscripthttps://onnx.ai/onnxyolov8n.onnxhttps://docs.openvino.ai/latest/index.htmlopenvinoyolov8n_openvino_model/https://developer.nvidia.com/tensorrtengineyolov8n.enginehttps://github.com/apple/coremltoolscoremlyolov8n.mlmodelhttps://www.tensorflow.org/guide/saved_modelsaved_modelyolov8n_saved_model/https://www.tensorflow.org/api_docs/python/tf/Graphpbyolov8n.pbhttps://www.tensorflow.org/litetfliteyolov8n.tflitehttps://coral.ai/docs/edgetpu/models-intro/edgetpuyolov8n_edgetpu.tflitehttps://www.tensorflow.org/jstfjsyolov8n_web_model/https://github.com/PaddlePaddlepaddleyolov8n_paddle_model/

实例分割

实例分割比对象检测更进一步,涉及识别图像中的单个对象,并将它们从图像的其余部分分割出来

实例分割模型的输出是一组掩码或轮廓,它们勾勒出图像中的每个对象,以及每个对象的类标签和置信度分数。当你不仅需要知道物体在图像中的位置,还需要知道它们的确切形状时,实例分割非常有用。

YOLOv8分割模型使用

-seg

后缀,即

yolov8n- seg .pt

,并在COCO上进行预训练。

训练

在COCO128-seg数据集上训练YOLOv8n-seg 100个epoch,图像大小为640。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.yaml")# build a new model from scratch
model = YOLO("yolov8n-seg.pt")# load a pretrained model (recommended for training)# Train the model
results = model.train(data="coco128-seg.yaml", epochs=100, imgsz=640)
  • CLI
yolo task=segment mode=train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

验证

在COCO128-seg数据集上验证训练过的YOLOv8n-seg模型的准确性。不需要传递参数,因为模型保留了它的训练数据和参数作为模型属性。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")# load an official model
model = YOLO("path/to/best.pt")# load a custom model# Validate the model
results = model.val()# no arguments needed, dataset and settings remembered
  • CLI
yolo task=segment mode=val model=yolov8n-seg.pt  # val official model
yolo task=segment mode=val model=path/to/best.pt  # val custom model

预测

使用训练过的YOLOv8n-seg模型对图像进行预测。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")# load an official model
model = YOLO("path/to/best.pt")# load a custom model# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")# predict on an image
  • CLI
yolo task=segment mode=predict model=yolov8n-seg.pt source="https://ultralytics.com/images/bus.jpg"# predict with official model
yolo task=segment mode=predict model=path/to/best.pt source="https://ultralytics.com/images/bus.jpg"# predict with custom model

导出

导出YOLOv8n-seg模型到不同的格式,如ONNX, CoreML等。

  • python
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")# load an official model
model = YOLO("path/to/best.pt")# load a custom trained# Export the model
model.export(format="onnx")
  • CLI
yolo mode=export model=yolov8n-seg.pt format=onnx  # export official model
yolo mode=export model=path/to/best.pt format=onnx  # export custom trained model

分类

图像分类是三个任务中最简单的,涉及到将整个图像分类到一组预定义的类中的一个。

图像分类器的输出是一个单一的类标签和一个置信度分数。当您只需要知道图像属于什么类,而不需要知道该类对象的位置或它们的确切形状时,图像分类是有用的。

YOLOv8分类模型使用

-cls

后缀,即

yolov8n-cls.pt

,并在ImageNet上进行预训练。其他的使用方法和检测与分割类似,不再赘述。

配置

YOLO设置和超参数在模型的性能、速度和准确性中起着至关重要的作用。这些设置和超参数可以在模型开发过程的各个阶段影响模型的行为,包括训练、验证和预测。

正确地设置和调优这些参数可以对模型有效地从训练数据中学习并推广到新数据的能力产生重大影响。例如,选择合适的学习率、批大小和优化算法会极大地影响模型的收敛速度和精度。同样,设置正确的置信度阈值和非最大抑制(NMS)阈值也会影响模型在检测任务上的性能。

设置操作类型

YOLO模型可用于各种任务,包括检测、分割和分类。这些任务的不同之处在于它们产生的输出类型和它们要解决的特定问题。

  • 检测:检测任务涉及识别和定位图像或视频中感兴趣的对象或区域。YOLO模型通过预测图像中物体的边界框和类标签,可以用于物体检测任务。
  • 分割:分割任务包括将图像或视频划分为对应于不同对象或类的区域或像素。
  • 分类:分类任务包括为输入(如图像或文本)分配类标签。YOLO模型可以通过预测输入图像的类别标签来进行图像分类任务

根据你要解决的特定问题,YOLO模型可以在不同的模式下使用。这些模式包括train、val和predict。

  • 训练(Train):训练模式用于在数据集上训练模型。这种模式通常在模型的开发和测试阶段使用。
  • Val: Val模式用于评估模型在验证数据集上的性能。这种模式通常用于调整模型的超参数和检测过拟合。
  • Predict: Predict模式用于在新数据上使用模型进行预测。这种模式通常用于生产环境或将模型部署给用户时。
    KeyValueDescriptiontaskdetect可选择:detect, segment, classifymodetrain可选择: train, val, predictresumeFalse当设置为True时,恢复上一次的任务。当设置为False时,从给定的model.pt中恢复。modelnull设置模型。格式因任务类型而异。支持model_name, model.yaml,model.ptdatanull设置数据,支持多数类型 data.yaml, data_folder, dataset_name

    训练

YOLO模型的训练设置是指用于在数据集上训练模型的各种超参数和配置。这些设置会影响模型的性能、速度和精度。一些常见的YOLO训练设置包括批量大小、学习率、动量和权重衰减。其他可能影响训练过程的因素包括优化器的选择、损失函数的选择、训练数据集的大小和组成。重要的是要仔细调整和试验这些设置,以实现给定任务的最佳性能。
KeyValueDescriptiondevice‘’Cuda设备,即0或0、1、2、3或cpu。选择可用的cuda0设备epochs100需要训练的epoch数workers8每个进程使用的cpu worker数。使用DDP自动伸缩batch16Dataloader的batch大小imgsz640Dataloader中图像数据的大小optimizerSGD支持的优化器:Adam, SGD, RMSPropsingle_clsFalse将多类数据作为单类进行训练image_weightsFalse使用加权图像选择进行训练rectFalse启用矩形训练cos_lrFalse使用cosine LR调度器lr00.01初始化学习率lrf0.01最终的OneCycleLR学习率momentum0.937作为SGD的momentum和Adam的beta1weight_decay0.0005优化器权重衰减warmup_epochs3.0Warmup的epoch数,支持分数warmup_momentum0.8warmup的初始动量warmup_bias_lr0.1Warmup的初始偏差lrbox0.05Box loss gaincls0.5cls loss gaincls_pw1.0cls BCELoss positive_weightobj1.0bj loss gain (scale with pixels)obj_pw1.0obj BCELoss positive_weightiou_t0.20iou训练时的阈值anchor_t4.0anchor-multiple阈值fl_gamma0.0focal loss gammalabel_smoothing0.0nbs64nominal batch sizeoverlap_maskTrue分割:在训练中使用掩码重叠mask_ratio4分割:设置掩码下采样dropoutFalse分类:训练时使用dropout

预测

YOLO模型的预测设置是指用于在新数据上使用模型进行预测的各种超参数和配置。这些设置会影响模型的性能、速度和精度。一些常见的YOLO预测设置包括置信度阈值、非最大抑制(NMS)阈值和要考虑的类别数量。其他可能影响预测过程的因素包括输入数据的大小和格式,是否存在额外的特征(如掩码或每个框的多个标签),以及模型正在用于的特定任务。重要的是要仔细调整和试验这些设置,以实现给定任务的最佳性能。
KeyValueDescriptionsourceultralytics/assets输入源。支持图片、文件夹、视频、网址showFalse查看预测图片save_txtFalse保存结果到txt文件中save_confFalse保存condidence scoressave_cropFaslehide_labelsFalse隐藏labelshide_confFalse隐藏confidence scoresvid_strideFalse输入视频帧率步长line_thickness3边框厚度(单位:像素)visualizeFalse可视化模型特征augmentFalse增强推理agnostic_nmsFalseClass-agnostic NMSretina_masksFalse分割:高分辨率掩模

验证

YOLO模型的验证设置是指用于评估模型在验证数据集上性能的各种超参数和配置。这些设置会影响模型的性能、速度和精度。一些常见的YOLO验证设置包括批量大小、训练期间执行验证的频率以及用于评估模型性能的指标。其他可能影响验证过程的因素包括验证数据集的大小和组成,以及模型正在用于的特定任务。重要的是要仔细调整和实验这些设置,以确保模型在验证数据集上表现良好,并检测和防止过拟合。
KeyValueDescriptionnovalFalsesave_jsonFalsesave_hybridFalseconf0.001置信度阈值iou0.6IoU阈值max_det300最大检测数halfTrue使用.half()模型dnnFalse使用OpenCV DNN进行ONNX推断plotsFalse

数据扩充

YOLO模型的增强设置是指应用于训练数据的各种变换和修改,以增加数据集的多样性和大小。这些设置会影响模型的性能、速度和精度。一些常见的YOLO增强设置包括应用的转换类型和强度(例如随机翻转、旋转、裁剪、颜色变化),应用每个转换的概率,以及是否存在其他功能,如掩码或每个框多个标签。其他可能影响数据扩充过程的因素包括原始数据集的大小和组成,以及模型正在用于的特定任务。重要的是要仔细调整和实验这些设置,以确保增强后的数据集具有足够的多样性和代表性,以训练高性能的模型。
KeyValueDescriptionhsv_h0.015Image HSV-Hue augmentation (fraction)hsv_s0.7Image HSV-Saturation augmentation (fraction)hsv_v0.4Image HSV-Value augmentation (fraction)degrees0.0Image rotation (+/- deg)translate0.1Image translation (+/- fraction)scale0.5Image scale (+/- gain)shear0.0Image shear (+/- deg)perspective0.0Image perspective (+/- fraction), range 0-0.001flipud0.0Image flip up-down (probability)fliplr0.5Image flip left-right (probability)mosaic1.0Image mosaic (probability)mixup0.0Image mixup (probability)copy_paste0.0Segment copy-paste (probability)

日志,检查点,绘图和文件管理

在训练YOLO模型时,日志记录、检查点、绘图和文件管理是重要的考虑因素。

  • 日志记录:在训练期间记录各种指标和统计数据通常有助于跟踪模型的进展和诊断任何可能出现的问题。这可以通过使用日志库(如TensorBoard)或将日志消息写入文件来实现。
  • 检查点:在训练期间,定期保存模型的检查点是一个很好的做法。如果训练过程被中断,或者你想尝试不同的训练配置,这允许你从之前的点恢复训练。绘图:可视化模型的性能和训练过程,有助于理解模型的行为方式和识别潜在问题。这可以使用matplotlib等绘图库完成,也可以使用TensorBoard等日志库来绘图。
  • 文件管理:管理训练过程中生成的各种文件,例如模型检查点、日志文件和绘图,可能具有挑战性。有一个清晰和有组织的文件结构是很重要的,以便跟踪这些文件,并使其易于根据需要访问和分析它们。

有效的日志记录、检查点、绘图和文件管理可以帮助您跟踪模型的进度,并使其更容易调试和优化训练过程。
KeyValueDescriptionproject:‘runs’The project namename:‘exp’The run name. exp gets automatically incremented if not specified, i.e, exp, exp2 …exist_ok:FalseplotsFalse在验证时保存图像nosaveFalse不保存任何文件

自定义模型

Ultralytics YOLO命令行和python接口都只是基本引擎执行器的高级抽象。让我们来看看Trainer引擎。

BaseTrainer

BaseTrainer包含通用的样板训练例程。只要遵循正确的格式,它可以针对任何基于覆盖所需功能或操作的任务进行定制。例如,你可以通过覆盖这些函数来支持你自己的自定义模型和dataloder:

  • get_model(cfg, weights) - 用来创建模型的函数
  • get_dataloder() - 用来创建dataloader的函数

DetectionTrainer

以下是如何使用YOLOv8 DetectionTrainer并自定义它。

from ultralytics.yolo.v8.detect import DetectionTrainer

trainer = DetectionTrainer(overrides={...})
trainer.train()
trained_model = trainer.best  # get best model

自定义Detection Trainer

from ultralytics.yolo.v8.detect import DetectionTrainer

classCustomTrainer(DetectionTrainer):defget_model(self, cfg, weights):...defcriterion(self, preds, batch):# get ground truth
        imgs = batch["imgs"]
        bboxes = batch["bboxes"]...return loss, loss_items  # see Reference-> Trainer for details on the expected format# callback to upload model weightsdeflog_model(trainer):
    last_weight_path = trainer.last
    ...

trainer = CustomTrainer(overrides={...})
trainer.add_callback("on_train_epoch_end", log_model)# Adds to existing callback
trainer.train()

参考

详细解读YOLOv8的改进模块
mmyolo


本文转载自: https://blog.csdn.net/zyw2002/article/details/128732494
版权归原作者 zyw2002 所有, 如有侵权,请联系我们删除。

“YOLOv8详解 【网络结构+代码+实操】”的评论:

还没有评论