0


DataWhale AI 夏令营 | yolov8神经网络结构

一、yolov8神经网络图示

网络架构代码在ultralytics-main/ultralytics/nn/modules下

包含conv,block,head,SPPF模块

二、conv.py模块的conv类

    这个程序文件是一个包含多个卷积模块的源代码文件。 

    它定义了几个卷积模块,如常规卷积(Conv)、轻量级卷积(LightConv)、深度可分离卷积(DWConv)等。 

    每个模块都有相应的前向传播方法以及其他特定的功能,如融合卷积(fuse_convs)、空间注意力模块 (SpatialAttention)等。 

    这些模块可以用来构建深度学习模型。 

Conv **类在提供的代码中定义了一个标准的卷积层,包括了激活函数等参数。 **

    我们来逐步解析这段代码: 

    1. **类定义( **class Conv(nn.Module) **): **

    继承自 nn.Module ,表明它是一个 PyTorch 模块,用于构建神经网络的卷积层。 

    2. **构造函数( **def __init__(self, c1, c2, k=1, s=1, p=None, g=1, d=1, act=True) **): **

    初始化 Conv 类的实例。 

            参数: 

            c1 :输入通道的数量。 

            c2 :输出通道的数量。 

            k :卷积核的大小。 

            s :卷积的步长。 

            p :填充的大小,如果为 None ,则使用 autopad 函数自动计算。 

            g :卷积的分组数量。 

            d :卷积的扩张系数。 

           act :激活函数,如果为 True ,使用默认的 SiLU 激活函数;如果是 nn.Module 类型的实例,则使用该激活函数;否则使用恒等激活函数 nn.Identity 。 

            构造函数设置了以下层: 

            self.conv :一个二维卷积层,使用上述参数配置。 

            self.bn :对输出通道数 c2 的批量归一化层。 

            self.act :根据 act 参数配置的激活函数。 

    3. **前向方法( **def forward(self, x) **): **

            定义了模块的前向传播。 

            接受输入张量 x 并执行以下操作: 

            通过 self.conv 应用卷积。应用批量归一化 self.bn 。 

            应用激活函数 self.act 。 

            返回处理后的张量。 

    4. **另一个前向方法( **def forward_fuse(self, x) **): **

            该方法提供了另一种前向传播,但没有批量归一化步骤。 

            直接应用卷积 self.conv 并通过激活函数 self.act 。 

            总结: 

            Conv 类提供了一个灵活的卷积层实现,允许用户根据需要配置多种参数,包括卷积核大小、步长、填充、分组和扩张系数等。 

            同时,它也支持不同的激活函数选项,使得这个类在神经网络设计中非常通用。 

此外,额外的 forward_fuse 方法提供了一种在不使用批量归一化的情况下应用卷积和激活函数的方式,增加了额外的灵活性。

nn.SiLU Sigmoid Linear Unit,又称为Swish激活函数)是神经网络中使用的一种激活函数。

它是由谷歌的研究人员在2017年提出的,后来因其良好的性能和特性而在深度学习社区中变得流行。

*SiLU***激活函数的定义 **

SiLU激活函数的数学表达式为:

其中, \sigma (_x_{_{_{_{}^{}}^{}}^{}}^{})是Sigmoid函数\sigma (x^{})=\frac{1}{1+e^{-x}}x^{}是输入值。

**特性和优点 **

  1. 非线性:SiLU是一个非线性激活函数,可以帮助神经网络捕捉复杂的数据模式。

  2. 平滑且连续:SiLU函数是平滑和连续的,这有助于梯度下降的优化过程。

  3. 自适应门控机制:SiLU激活函数通过结合Sigmoid函数实现了一种自适应的门控机制。这意味着它可以根据

输入值的不同自动调整输出值的比例,从而在某种程度上控制信息的流动。

  1. 性能:在某些情况下,SiLU激活函数已被证明比传统的ReLU(Rectified Linear Unit)和其变体(如Leaky ReLU)表现更好,特别是在深层网络中。

三、head.py模块的Detect

    这个程序文件是一个神经网络模型的头部模块。 

    它定义了YOLOv8检测模型、分割模型、姿态模型、分类模型和Real-Time Deformable         Transformer 

    Decoder(RTDETRDecoder)模型的头部结构。 

    这些模型分别用于目标检测、分割、关键点定位和分类任务。 

    它们都是基于PyTorch的模块,实现了各自的前向传播函数和初始化函数。 

头部模块中的代码包含了一些卷积层、池化层、线性层等基本神经网络组件,以及一些特定模型的定制组件,如 DFL、Proto等。

    Detect **类在提供的代码中定义了**** YOLOv8 ****的检测头,用于目标检测模型。**        

    这个类负责生成预测的边界框和类别概率。我们逐步解析这段代码: 

    1. **类定义( **class Detect(nn.Module) **): **

            继承自 nn.Module ,表明它是一个 PyTorch 模块。 

    2. **构造函数( **def __init__(self, nc=80, ch=()) **): **

            初始化 Detect 类的实例。 

            参数: 

            nc :类别数量。 

            ch :每个检测层的通道数。 

    构造函数中的关键变量和层: 

            self.nc :类别数量。 

            self.nl :检测层的数量。 

            self.reg_max :DFL(Distribution Focal Loss)通道数。 

            self.no :每个锚点的输出数量。 

            self.stride :在模型构建过程中计算的步长。 

            self.cv2 和 self.cv3 :模块列表,包含卷积层序列,用于处理输入的不同部分。 

            self.dfl :DFL 层,用于处理边界框的位置编码。 

    3. **前向方法( **def forward(self, x) **): **

    处理输入张量 x (来自模型的多个检测层),并返回预测结果。 

    对每个检测层的输出应用 self.cv2 和 self.cv3 ,然后进行拼接。 

    如果在训练模式下,直接返回处理后的输出。 

    在非训练模式下,根据输入形状重构网格,计算边界框和类别概率。 

    如果处于导出模式,进行额外的处理以适应不同的导出格式。 

    4. bias_init **方法: **

    初始化检测层的偏置,这个过程需要提前知道步长信息。 

    对每个 cv2 和 cv3 层中的最后一个卷积层的偏置进行初始化。 

    总结: 

    Detect 类是 YOLOv8 模型中的关键部分,负责将特征图转换为最终的检测输出,包括边界框和类别概率。 

    这个类通过多个卷积层和自定义层处理输入特征图,最终生成用于目标检测的输出。 

    此外,它还支持不同的操作模式(如训练、导出等),以适应不同的使用场景和需求。 

Detect *类的输入和输出张量的形状(shape)依赖于几个关键因素,包括模型的输入尺寸、检测层的数量、以***及每个检测层的通道数。 **

    不过,我们可以根据类定义中的信息来推断一般情况下的输入和输出形状: 
  1. **输入张量形状: **

     输入到 Detect 类的是来自模型不同检测层的特征图列表。假设有 self.nl 个检测层,每个检测层输出的特征图形状为 [batch_size, channels, height,width] 。 
    
     具体的 channels 、 height 和 width 取决于模型的架构和输入尺寸。例如,对于一个具有三个检测层的模型,输入列表包含三个形状为 [batch_size, ch[i], height_i, width_i] 的张量,其
    

中 i 为检测层的索引。

  1. **输出张量形状: **

     输出是预测的边界框和类别概率。
    

对于每个检测层,边界框的输出通道数为 4 * self.reg_max ,类别概率的输出通道数为

self.nc 。

    输出张量的形状通常为 [batch_size, self.no, height_i * width_i] ,其中 self.no = nc + 

self.reg_max * 4 。

    如果有多个检测层,这些层的输出会沿着第三个维度(height_i * width_i)进行拼接。 

举个例子,如果有三个检测层,每层的特征图大小分别为 8x8 、 16x16 和 32x32 ,且 self.nc = 80 (类别数)和 self.reg_max = 16 ,那么每层的输出形状分别为 [batch_size, 80 + 16 * 4, 8 * 8] 、[batch_size, 80 + 16 * 4, 16 * 16] 和 [batch_size, 80 + 16 * 4, 32 * 32] 。这些输出将沿着最后

一个维度拼接成一个更大的张量。 需要注意的是,实际的输入和输出形状根据具体的模型架构和输入尺寸有所不同。

forward 方法用于处理输入数据 x 并生成目标检测的结果。

下面是这个方法的逐步解释:

**方法概述 **

    forward 方法是PyTorch中 nn.Module 的核心方法,用于定义模型如何处理输入数据。 

    在这个特定的 forward 方法中,它处理输入的特征图(从不同层级的网络层得到),生成并返回预测的边界框和类别概率。 

**代码解释 **

  1. 输入数据处理

     shape = x[0].shape :获取输入特征图(假设是一个列表或元组)中第一个元素的形状。这通常表示为 [Batch size, Channels, Height, Width](BCHW)。 
    
  2. 特征图的处理和拼接

     循环遍历 self.nl (检测层的数量。
    

对于每个特征图,通过两个卷积层( self.cv2[i] 和 self.cv3[i] )处理,然后将结果沿着通道

维度拼接。

  1. 训练模式下的输出

     如果模型处于训练模式( self.training == True ),则直接返回处理后的特征图 x 。 
    
  2. 非训练模式下的处理

     如果模型不在训练模式,或者动态计算锚点( self.dynamic )或输入形状发生变化,需要重新计算锚点和步幅。 
    
  3. 生成边界框和类别预测

     重新整理特征图,使其成为预测的输出格式。
    

如果模型处于特定的导出模式(如TensorFlow Lite、Edge TPU),则处理输出以避免在转换时出现

问题。

  1. 边界框的处理

     使用 dist2bbox 方法将预测转换为边界框坐标。
    

在特定的导出模式下,对边界框进行归一化处理以减少量化误差。

  1. 返回结果

     将边界框坐标和类别概率拼接,形成最终的输出 y 。如果处于导出模式,只返回 y ;否则,返回一个包含 y 和原始特征图 x 的元组。
    

**总结 **

    这段代码定义了一个用于目标检测的神经网络模型的前向传播过程。它处理多尺度的特征图,生成边界框和类别 

概率的预测。

    此外,它包含了一些用于特定导出模式的逻辑,以确保模型能够适应不同的部署需求。 

整体上,这个 forward 方法是目标检测模型(如YOLOv8)的核心部分,用于将深度学习模型的学习能力转换为实际的目标检测应用。

    在提供的 forward 函数中,训练模式和非训练模式下的输出存在显著差异。 

    这些差异主要源于目标检测模型在训练和推理(或评估)阶段的不同需求。 

**训练模式下的输出 **

    1. **输出内容**:在训练模式下,输出通常是一组处理后的特征图。这些特征图是神经网络中间层的输出,它们包含了对原始输入数据的高级特征表示。 

    2. **输出形状**:每个特征图保持其原始的 [Batch size, Channels, Height, Width] (BCHW)形状。这些特征图直接用于计算损失函数,以训练网络对目标进行准确的定位和分类。 

    3. **用途**:这些特征图被用于后续的损失计算,这一点是训练过程中特别重要的。损失函数评估网络预测与真实标注(ground truth)之间的差异,并通过反向传播更新网络权重。 

**非训练模式下的输出 **

    1. **输出内容**:在非训练模式下(如推理或评估),输出是对原始输入数据的最终预测,包括预测的边界框和类别概率。 

    2. **输出形状**:输出的形状被调整以匹配边界框和类别概率的格式要求。例如,边界框包括每个锚点的 x, y, 宽度和高度,而类别概率为每个锚点的类别预测。 

    3. **用途**:这些预测用于实际的目标检测任务,比如在图像中标识和分类物体。在这个阶段,模型的输出是直接面向最终用户或下游任务的。 

**总结 **

    总的来说,在训练模式下,输出被用于网络的训练,主要是为了计算损失函数并通过反向传播进行学习。 

    而在非训练模式下,输出是模型对输入数据的直接预测,用于实际的目标检测应用。 

这两种模式下的输出差异反映了神经网络在训练和推理阶段不同的需求和目的。

在提供的 forward 方法中, self.dfl 是用于处理边界框(bounding box)回归的组件。

DFL 通常代表分布式焦点损失(Distribution Focal Loss),这是一种用于改进目标检测模型边界框回归精度的

技术。

self.dfl **的作用 **

  1. 目标: DFL 旨在提高模型预测边界框坐标时的准确性。传统的边界框回归方法直接预测框的坐标,而 DFL通过预测坐标的概率分布来提高回归的准确性。

  2. 原理:在 DFL 中,每个边界框坐标的预测被视为一系列离散的概率分布。这样,模型不仅预测坐标的最值,而且还预测了坐标的概率分布,从而提供了更多的回归细节。

  3. 实现:在代码中, self.dfl 是一个神经网络模块,它处理 self.cv2 的输出(即与边界框坐标相关的特征图),将这些特征图转换为表示坐标概率分布的格式。self.dfl **的输出 **

  4. 输出内容: self.dfl 的输出是对每个边界框坐标概率分布的编码。这些概率分布随后被用于计算边界框的最终坐标。

  5. 形状和性质:输出的形状取决于 DFL 的具体实现和输入特征图的维度。通常,输出会包含每个预测边界框坐标的概率分布信息。

**在 **forward **方法中的应用 **

在 forward 方法中, self.dfl 被应用于 self.cv2 的输出。具体来说:

dbox = dist2bbox(self.dfl(box), self.anchors.unsqueeze(0), xywh=True, dim=1) *

self.strides 这行代码表示 self.dfl 处理了边界框坐标相关的特征图(来自 self.cv2 ),并将其转

换为实际的边界框坐标(通过 dist2bbox 函数)。这里, self.anchors 和 self.strides 用于将这些

坐标转换为相对于原始图像尺寸的实际坐标。

**总结 **

self.dfl 在 forward 方法中处理与边界框坐标相关的特征图,将其转换为表示坐标概率分布的格式,然后用

这些分布信息来计算最终的边界框坐标。这种方法能够提高边界框回归的准确性,是目标检测模型中重要的改进

技术。

Segment **类是 Detect 类的子类,它专门用于 YOLOv8 ****的分割模型。 **

这个类不仅处理目标检测,还处理图像分割任务。我们来逐步解析这段代码:

  1. **类定义( **class Segment(Detect) **): **

     继承自 Detect 类,表明它具有目标检测的功能,并在此基础上扩展了分割功能。 
    
  2. **构造函数( **def init(self, nc=80, nm=32, npr=256, ch=()) **): **

     初始化 Segment 类的实例。 
    
     参数: 
    
             nc :类别数量。 
    
             nm :掩膜(mask)数量。 
    
             npr :原型(prototype)数量。 
    
             ch :每个检测层的通道数。
    

重要组件:

    self.proto : Proto 类的实例,用于生成原型。 

    self.detect :继承自 Detect 类的前向方法。 

    self.cv4 :模块列表,包含卷积层序列,用于处理输入的不同部分以生成掩膜系数。 
  1. **前向方法( **def forward(self, x) **): **

     处理输入张量 x 并返回模型输出。 
    
     p = self.proto(x[0]) :对第一个特征图应用原型生成模块,生成掩膜原型。 
    
     mc :计算掩膜系数,通过将 self.cv4 应用于每个特征图并进行拼接。 
    
     x = self.detect(self, x) :调用继承自 Detect 的方法来处理特征图,生成边界框和类别概
    

率。

    根据模型是否处于训练模式或导出模式,返回不同的输出组合。 

总结:

    Segment 类扩展了 YOLOv8 的目标检测能力,增加了对图像分割的支持。它利用 Proto 类生成掩膜原型,并 计算掩膜系数,这些与 Detect 类生成的目标检测输出(边界框和类别概率)结合,为分割任务提供了必要的输出。这个类适用于需要同时进行目标检测和分割的场景。 

Segment **类的输入和输出张量的形状取决于模型的配置和输入数据的特征。 **

我们可以根据类定义和功能来推断大致的输入输出形状:1. **输入张量形状: **

    输入是一个包含多个特征图的张量列表,来源于模型的不同层级。 

假设模型有 self.nl 个检测层,每个层的输入特征图形状为 [batch_size, channels, height,

width] 。

    具体的 channels , height , 和 width 取决于模型的架构和输入尺寸。例如,如果有三个检测层, 

    输入是三个形状分别为 [batch_size, ch[0], H1, W1] 、 [batch_size, ch[1], H2, W2] 和 

[batch_size, ch[2], H3, W3] 的张量。

  1. **输出张量形状: **

     Segment 类的输出包括目标检测的输出和分割掩膜的输出。
    

目标检测输出由 Detect 类生成,通常是边界框和类别概率。边界框输出的形状通常为

[batch_size, 4 * self.reg_max, height_i * width_i] ,类别概率输出的形状通常为

[batch_size, self.nc, height_i * width_i] 。

    分割掩膜的输出由 self.proto 和 self.cv4 生成。 self.proto 生成的掩膜原型的形状为 

[batch_size, self.npr, H1, W1] ,而 self.cv4 生成的掩膜系数的形状为 [batch_size,

self.nm, height_i * width_i] 。

    在训练模式下,输出是一个元组,包括目标检测输出、掩膜系数和掩膜原型。在导出模式下,输出是 

    掩膜原型和一个包含目标检测输出和掩膜系数的拼接张量。 

需要注意的是,实际的输入和输出形状会根据具体的模型配置和输入数据而有所不同。例如,不同的输入图像尺寸或不同层的通道数都会影响特征图的尺寸。

三、block.py下的Bottleneck类

Bottleneck **类定义了一个标准的瓶颈模块。 **

    这是深度神经网络中常见的架构组件,特别是在设计用于图像分类、目标检测等任务的模型时。 

我们来详细解析这段代码:

  1. **类定义( **class Bottleneck(nn.Module) **): **

     继承自 nn.Module ,表明它是一个 PyTorch 模块。 
    
  2. **构造函数( **def init(self, c1, c2, shortcut=True, g=1, k=(3, 3), e=0.5) **): **

     初始化 Bottleneck 类的实例。 
    
     参数: 
    
             c1 :输入通道的数量。 
    
             c2 :输出通道的数量。 
    
             shortcut :表示是否使用快捷方式(残差连接)的布尔值。 
    
             g :分组卷积的组数。 
    
             k :两个卷积层的核大小的元组。 
    
             e :隐藏通道的扩展因子。 
    
     构造函数设置了以下层: 
    
             c_ :根据 c2 和扩展因子 e 计算隐藏通道的数量。 
    
             self.cv1 :一个将通道数从 c1 减少到 c_ 的卷积层,使用 k 中的第一个核大小。 
    
             self.cv2 :另一个从 c_ 到 c2 的卷积层,使用 k 中的第二个核大小。如果 g 大于 1,该
    

层还包括分组卷积。

    如果启用了快捷方式并且输入和输出通道大小相同,则将 self.add 属性设置为 True 。 
  1. **前向方法( **def forward(self, x) **): **

     定义了模块的前向传播。 
    
     接受输入张量 x 并执行以下操作: 
    
     输入通过 self.cv1 ,然后通过 self.cv2 。 
    
     如果 self.add 属性为 True (意味着启用了快捷方式且通道大小匹配),则将
    

self.cv2(self.cv1(x)) 的输出添加到原始输入 x 上。这是允许信息绕过卷积的残差连接,

有助于缓解梯度消失问题,使网络能够学习恒等映射。

    如果 self.add 为 False ,则输出仅为 self.cv2(self.cv1(x)) ,不将其添加回输入。 

    总结来说, Bottleneck 模块执行一系列卷积操作,会先减少通道维度,然后再扩展回去。 

如果启用并适用快捷方式,它会将输入张量添加回输出,创建一个残差连接。

    这种设计对深度神经网络有益,允许构建更深层次的模型而不会降低性能。**为了更好地理解 **Bottleneck **模块的工作原理,让我们通过一个具体的例子来说明。 **

假设输入张量 x 具有特定的维度和值。

例子:

假设 x 的形状是 [1, 256, 20, 20] ,其中:

1 表示批次大小。

256 表示输入通道数( c1 )。

20, 20 表示特征图的高度和宽度。

当输入张量 x 的形状是 [1, 256, 20, 20] 并经过 Bottleneck 层的 forward 方法时,会发生以下降维和

升维的变化:

  1. 降维(通过 self.cv1 ):

     输入张量 x 首先通过卷积层 self.cv1 。假设 c2 是 256,并且扩展因子 e 是 0.5,那么隐藏层通道数 c_ 会是 128( c_ = int(256 * 0.5) )。 
    
     因此, self.cv1 将输入张量的通道数从 256 降维到 128。操作后张量的形状变为 [1, 128, 20,
    

20] 。

  1. 升维(通过 self.cv2 ):

     经过 self.cv1 的张量接着通过第二个卷积层 self.cv2 。由于 self.cv2 的输出通道数是
    

c2 (假设为 256),这个卷积层会将通道数从 128 升维回 256。

    执行该操作后,张量的形状变回 [1, 256, 20, 20] 。 
  1. 残差连接(如果启用):

     如果在类的初始化中设置了残差连接( shortcut 参数为 True 且 c1 等于 c2 ),则
    

self.cv2(self.cv1(x)) 的结果会与原始输入 x 相加。由于 x 和 self.cv2(self.cv1(x)) 形

状相同( [1, 256, 20, 20] ),这个相加操作不会改变张量的形状。

    如果残差连接没有启用,输出仅为 self.cv2(self.cv1(x)) 的结果。 

总之,输入张量 x 经过 Bottleneck 层的 forward 方法后,首先发生了降维(256 到 128),随后又发生了升维(128 回到 256)。如果启用了残差连接,则会在最后将处理后的结果与原始输入相加,但这不会改变张量的形状。

在这个例子中, Bottleneck 模块通过先减少通道数,然后再增加回原始通道数的方式来处理输入张量

如果启用了快捷方式且输入输出通道数相同,它会将输入添加到卷积后的输出上,形成残差连接。

这种残差连接有助于缓解深度网络中的梯度消失问题,并使网络能够学习更复杂的特征表示。

*注意: *e :隐藏通道的扩展因子设置为*1.0, Bottleneck 模块不再通过先减少通道数,然后再增加回原始通道数的方式来处理输入张量。*

五、block.py下的C2f类

C2f 类定义了一个更快的** CSPCross Stage Partial****)瓶颈层实现,该层只使用了两个卷积层。 **

让我们逐步解析这段代码:

  1. **类定义( **class C2f(nn.Module) **): **

     继承自 nn.Module ,表明它是一个 PyTorch 模块,用于构建神经网络。 
    
  2. **构造函数( **def init(self, c1, c2, n=1, shortcut=False, g=1, e=0.5) **): **

     初始化 C2f 类的实例。 
    
     参数: 
    
             c1 :输入通道的数量。 
    
             c2 :输出通道的数量。 
    
             n :瓶颈模块的数量。 
    
             shortcut :表示是否在瓶颈模块中使用残差连接。g :分组卷积的组数。 
    
             e :扩展因子,用于计算隐藏通道的数量。 
    
     构造函数设置了以下层: 
    
             self.c :隐藏通道的数量,为 int(c2 * e) 。 
    
             self.cv1 :一个将通道数从 c1 增加到 2 * self.c 的卷积层。 
    
             self.cv2 :一个将通道数从 (2 + n) * self.c 减少到 c2 的卷积层。 
    
             self.m :一个包含若干个 Bottleneck 模块的 ModuleList 。 
    
  3. **前向方法( **def forward(self, x) **): **

     定义了模块的前向传播。 
    
     接受输入张量 x 并执行以下操作: 
    
     通过 self.cv1 处理输入 x ,然后使用 chunk 将结果分成两部分。 
    
     将这两部分添加到列表 y 。 
    
     对于 self.m 中的每个瓶颈模块 m ,将 y 中的最后一部分作为输入并添加到 y 。 
    
     将 y 中的所有部分沿通道维度拼接,然后通过 self.cv2 。 
    
  4. **另一个前向方法( **def forward_split(self, x) **): **

     类似于 forward 方法,但使用 split 而不是 chunk 来分割 self.cv1 的输出。其余步骤与 forward 方法相同。 
    
     总结来说, C2f 类是一个 CSP 瓶颈层的变体,它通过少量卷积和瓶颈模块以较高效的方式处理输入特征图。 
    
     这种结构适用于需要快速特征提取且计算资源有限的场景。
    

为了更好地理解 C2f 类的工作方式,我们可以通过一个具体的例子来说明。假设输入张量 x 具有特定的维度和值。

    为了确定经过 C2f 类的 forward 方法后的输出形状,我们需要跟随代码中的操作逻辑。 

给定输入张量 x 的形状为 [1, 512, 20, 20] ,我们可以逐步分析:

  1. **经过 **self.cv1 卷积层

     这个卷积层将输入通道数 c1 (512)转换为 2 * self.c 。由于 self.c 是 c2 * e ,假设 c2 和
    

e 分别是类初始化时给定的输出通道数和扩展因子, self.c 就是 int(c2 * e) 。

    假设 c2 为512, e 为0.5,则 self.c 为256, 2 * self.c 为512。因此, self.cv1 的输出形 

状为 [1, 512, 20, 20] 。

    使用 chunk 将结果分成两个形状为 [1, 256, 20, 20] 的部分,并存储在列表 y 中。 
  1. **经过 **self.m **模块列表中的 **Bottleneck 操作

     假设 n=1 ,则只有一个 Bottleneck 模块。这个模块不会改变通道数(因为输入和输出通道数相同),也假设它不会改变空间维度。 
    
     因此,每次通过 Bottleneck 模块后,形状保持为 [1, 256, 20, 20] 。 
    
     对于 self.m 中的每个瓶颈模块 m (这里只有一个),它对列表 y 中的最后一部分(即第二个 [1,256, 20, 20] )进行处理,结果添加到 y 。 
    
  2. 拼接操作

     初始的 y 是 self.cv1(x) 的输出分成两个 [1, 256, 20, 20] 的部分。然后,每次通过
    

Bottleneck 模块后,会产生一个新的 [1, 256, 20, 20] 形状的张量。

    因此,最终拼接的张量将包含 2 + n 个 [1, 256, 20, 20] 形状的张量。假设 n=1 ,则拼接后的 

形状是 [1, (2 + 1) * 256, 20, 20] 即 [1, 768, 20, 20] 。

  1. **经过 **self.cv2 卷积层

     最后,拼接后的张量通过 self.cv2 卷积层,其输出通道数为 c2 。假设 c2 为512,则最终输出形状为 [1, 512, 20, 20] 。
    

综上所述,如果输入张量 x 的形状为 [1, 512, 20, 20] ,且假设 c2 为512, e 为0.5, n 为1,则经过

C2f 类的 forward 方法后,输出张量的形状将是 [1, 512, 20, 20] 。forward_split 方法和 forward 方法在 C2f 类中实现了相似的功能,但它们在处理张量时使用了不同的方

法: chunk 和 split 。

  1. forward 方法

     使用 torch.chunk 方法将 self.cv1(x) 的输出分成两个块。 chunk 方法均匀地分割张量,每个
    

块的大小尽相同。

    在这个例子中,假设 self.cv1(x) 的输出通道数为 2 * self.c , chunk 方法将这个输出沿通道 

维度均匀分为两部分,每部分都有 self.c 通道。

  1. forward_split 方法

     使用 torch.split 方法分割 self.cv1(x) 的输出。与 chunk 不同, split 允许指定每个分割块
    

的大小,提供更多的灵活性。

    在这个方法中, split 被指定为分割成两个大小为 self.c 的块,因此效果与 chunk 类似。 

总体来说,这两种方法在大多数情况下会产生相同的结果,但 split 提供了更多的控制能力,特别是在分割块的大小不均匀时。

    在 C2f 类的上下文中,这两个方法的差异不大,因为分割是均匀的。不过,选择使用 split 或 chunk 可以根据具体的应用场景和需求灵活决定。

六、block.py的SPPF类

SPPF 类定义了一个空间金字塔池化** - 快速(SPPF**)层

    我们来逐步解析这段代码: 
  1. **类定义( **class SPPF(nn.Module) **): **

     继承自 nn.Module ,表明它是一个 PyTorch 模块。 
    
  2. **构造函数( **def init(self, c1, c2, k=5) **): **

     初始化 SPPF 类的实例。 
    
     参数: 
    
             c1 :输入通道的数量。 
    
             c2 :输出通道的数量。 
    
             k :最大池化的核大小,默认值为 5。 
    
     构造函数设置了以下层: 
    
             self.cv1 :一个将通道数从 c1 减半的卷积层( Conv )。 
    
             self.cv2 :另一个处理前面操作的拼接输出至 c2 通道的卷积层。 
    
             self.m :一个最大池化层,核大小为 k ,步长为 1,填充为 k // 2 。这种配置允许池化操作保持输入特征图的原始大小。 
    
  3. **前向方法( **def forward(self, x) **): **

     定义了模块的前向传播。 
    
     接收一个输入张量 x ,并执行以下操作: 
    
             x = self.cv1(x) :将第一个卷积层应用于输入。 
    
             y1 = self.m(x) :对 x 应用最大池化。 
    
             y2 = self.m(y1) :再次应用最大池化,这次是对 y1 。 
    
             torch.cat((x, y1, y2, self.m(y2)), 1) :沿通道维度拼接输入 x 、两个最大池化输出 
    
     y1 和 y2 ,以及第三个最大池化输出(来自 y2 )。 
    
             self.cv2(...) :将第二个卷积层应用于这个拼接的张量。 
    
             self.cv2 的输出作为前向传播的最终输出返回。 
    
     SPPF 层是空间金字塔池化(SPP)层的一种修改和高效版本,常用于卷积神经网络中,用于在不同尺度上聚合特征,特别适用于目标检测任务。YOLOv8 中的 SPPF 层旨在捕获多尺度上下文信息,而不会显著增加计算成本。 不同深度的连续最大池化操作使模型能够捕获不同尺度的特征,增强了检测任务的特征表示。 
    
     为了更清晰地理解 SPPF 层的工作方式,我们可以通过一个具体的例子来说明。假设输入张量 x 具有特定的维度和值。 
    
     例子: 
    
     假设 x 的形状是 [1, 512, 20, 20] ,其中: 
    
     1 表示批次大小 
    
     512 表示输入通道数( c1 ) 
    
     20, 20 表示特征图的高度和宽度 
    
     给定输入张量 x 的形状为 [1, 512, 20, 20] ,我们可以逐步分析: 
    
  4. **经过 **self.cv1 卷积层:这个卷积层的输入通道数是 c1 (512),输出通道数是 c1 // 2 (256)。假设这个卷积层不改变空间维度(即高度和宽度),输出形状将是 [1, 256, 20, 20] 。

  5. **第一次最大池化 **self.m(x) :

     self.m 是一个最大池化层,其核大小为 k ,步长为 1,填充为 k // 2 。因为步长为 1 且有适当的填充,这个操作不会改变空间维度。所以输出形状仍然是 [1, 256, 20, 20] 。 
    
  6. **第二次最大池化 **self.m(y1) :

     同样地,第二次应用最大池化后,输出形状还是 [1, 256, 20, 20] 。 
    
  7. **拼接操作 **torch.cat((x, y1, y2, self.m(y2)), 1) :

     在这一步,我们将原始的 x , y1 , y2 以及 self.m(y2) 在通道维度上拼接。由于每个张量的形状都是 [1, 256, 20, 20] ,拼接后的形状将是 [1, 256*4, 20, 20] ,即 [1, 1024, 20, 20] 。 
    
  8. **经过 **self.cv2 卷积层

     这个卷积层将 [1, 1024, 20, 20] 的输入转换为 c2 个输出通道。假设 c2 的值是在类初始化时
    

给定的,且这个卷积层同样不改变空间维度。

    因此,如果我们知道 c2 的具体值,我们就可以确定最终输出的形状。假设 c2 是一个具体的数值(比如512),那么最终的输出形状将是 [1, c2, 20, 20] 。如果 c2 等于512,输出形状将是 [1, 512, 20,20] 。 

    通过这个例子,我们可以看到 SPPF 层如何通过一系列卷积和最大池化操作处理输入张量。 

它首先通过一个卷积层降低通道数,然后进行多次最大池化以捕获不同尺度的特征,最后通过另一个卷积层将这些特征合并。

    这种结构有助于模型在保持空间分辨率的同时,捕获丰富的上下文信息,这对于目标检测和分割任务非常重要。 

    根据代码中 self.m 最大池化层的配置,特征图的大小(即高度和宽度)在经过池化后**不会改变**。这是由于最大池化层的特定设置导致的,具体包括: 
  1. 核大小(Kernel Size:设置为 k 。在我们的例子中,假设 k = 5 。

  2. 步长(Stride:设置为 1 。步长决定了滑动窗口移动的距离。步长为 1 意味着窗口每次移动一个像素。

  3. 填充(Padding:设置为 k // 2 。在我们的例子中,这会是 5 // 2 = 2 。填充在输入特征图的边缘添加额外的层,这里是在每个边缘添加两个像素的零填充。

     由于步长为 1 和适当的填充,最大池化层可以在保持特征图原始尺寸的同时进行操作。 
    
     这意味着即使应用了池化,输入和输出特征图的高度和宽度仍然相同。
    

这种方法在不降低特征图空间分辨率的情况下捕获更广泛的上下文信息,对于需要精细空间信息的任务(如目标检测和分割)特别有用。

七、Concat操作

    在YOLO(包括YOLOv8)网络中,“Concat”是指连接(Concatenation)操作,这是一种数据合并的技术,常用于神经网络的特征融合。在目标检测和许多其他计算机视觉任务中,Concat操作扮演着非常重要的角色,尤其是在特征金字塔网络(Feature Pyramid Networks, FPN)和其他多尺度特征融合策略中。

具体到YOLO网络结构中,Concat操作主要有以下应用:

  1. 特征融合:在YOLO系列网络中,尤其是涉及到多尺度预测时,会从不同层级的特征图中提取特征。Concat操作可以将来自不同尺度或不同部分网络的特征图沿着通道维度进行拼接,即将它们的特征通道并排组合在一起,形成一个具有更丰富信息的新特征图。这样既保留了低层特征的细节信息(如边缘、纹理),又融入了高层特征的语义信息(如物体类别),有助于提高检测的准确性和对小目标的捕捉能力。
  2. 跳跃连接(Skip Connection):在诸如YOLOv3、YOLOv4以及YOLOv5等版本中,为了恢复一些因下采样而丢失的细节信息,常常采用跳跃连接的方式,即在下采样后的特征图与上一层(未经过下采样或下采样较少的层)的特征图之间使用Concat操作进行融合。这种设计有助于提升模型对物体大小和位置的精确检测能力。
  3. 多路径特征整合:在一些更复杂的网络结构设计中,Concat可能用于整合来自多个并行路径的特征,比如在执行不同类型的卷积操作(如标准卷积、空洞卷积等)后,将它们的输出通过Concat操作合并,以充分利用不同卷积类型的优势。

"Concat"操作通常由深度学习框架提供的函数来实现,例如在使用PyTorch时,会用到

torch.cat()

函数;若使用Keras或TensorFlow,则可能是

tf.concat()

。具体出现在代码的哪个位置,取决于网络架构的设计细节。

对于开源实现,如 Ultralytics 的YOLOv8(其代码基于PyTorch编写),Concat操作往往出现在以下几个典型场景中:

  1. 特征融合层:在特征金字塔网络(FPN)或者类似结构中,会看到Concat用于合并来自不同分辨率特征图的代码。例如,在models/common.py或类似的模块文件中,可能会有如下代码片段来实现特征图的拼接:
1# 假设x1, x2是要被拼接的特征图
2combined_feature_map = torch.cat([x1, x2], dim=1)  # 沿通道维度拼接
  1. 跳跃连接:在实现跳跃连接的部分,也会用到Concat。比如,在某一层的输出后面紧接着一个上采样(或称为上探)的操作,然后将其与之前某个较高分辨率特征图Concat起来:
1up_sampled_feature = F.interpolate(feature, size=(height, width), mode='nearest')
2concat_feature = torch.cat([up_sampled_feature, earlier_layer_feature], dim=1)
  1. 多分支结构融合:如果网络设计包含多个并行的卷积路径来处理不同类型的特征,那么在这些路径之后可能会使用Concat来合并它们的输出。

对于不清楚网络结构的,可以通过ultralytics-main/ultralytics/cfg/models文件中的yaml文件大致推断网络结构:yolov8.yaml文件解读

标签: 人工智能 YOLO

本文转载自: https://blog.csdn.net/qq_66919612/article/details/141680585
版权归原作者 无影663 所有, 如有侵权,请联系我们删除。

“DataWhale AI 夏令营 | yolov8神经网络结构”的评论:

还没有评论