0


对比yolov4和yolov3

记录备忘。

总体而言,yolov4是尝试组合一堆tricks,获取得到的模型,该模型具有训练更快、模型更轻、精度更高的特性。

1. 网络结构的不同

yolov4网络结构可分为以下三部分。与yolov3相比,其中backbone和neck不同,head是一样的。

1.1 Backbone

yolov3是Darknet53, yolov4是CSPDarknet53。

1.1.1 Darknet53

属于全卷积网络结构。

(1)整体可分为1个普通的3x3核,步长为2的卷积,再接5个layer;

(2)每个layer堆叠了大量的残差块Residual Block,且每个layer之间插入一个步长为2,3x3的卷积,完成下采样过程;

(3)如果输入的是416x416,则输出三个尺度:52x52x256, 26x26x512, 13x13x1024.

1.1.2 CSPDarknet53

CSPDarknet53是在Darknet53的基础上加了CSP block. csp block的特点是充分利用跨层信息:使用Cross Stage Partial Network结构,将输入特征图分成两个部分,然后通过跨层连接来结合这两个部分的信息。这样可以在减少计算复杂度的同时,提高网络的感受野和特征表达能力。

(1)Darknet53是由一系列residual block组成;

(2)而CSPDarknet53则是在每个卷积层CBM后追加CSP blocks. 如下图所示。

图中CBL = conv + BN + Leaky relu;CBM = conv + BN + Mish. 即激活函数换成平滑非单调的Mish激活函数(后面会详细介绍)。

CSP网络结构

在进入多个残差块之前,左右两种方式都将通道数减半,坐边是简单的splict函数直接拆分通道,右边是通过1x1的卷积。通道数减半后,再进入残差块,计算量就少了。

实际的算法实现通常是采用第二种,一个是方便部署(模型转换时估计不支持split函数),一个是1x1的卷积操作使得两个分支都充分的使用到了输入的全部特征,而不是一半。具体pytorch实现如下所示。

1.1.3 libtorch c++实现CSPDarknet53网络

实现的CSPDarknet53整体结构图如下。

其组件如下。

(1)CBM

conv2d + bn + Mish

(2)CSPLayer

CBM用作下采样(scale/2, channels*2),其中卷积是3x3卷积核,步长是2;

CSPX是csp模块,X是残差块Res unit的个数.

(3)CSPX

csp结构,通过前面两个CBM结构把输入通道减半,其中一个分支进入到多个残差块中,另一个分支不做处理,最后两个分支concat在一起。

(3)Res unit

实现代码如下。

CSPDarknet53

// CSPDarknet53
class CSPDarknet53Impl : public torch::nn::Module {
public:
    CSPDarknet53Impl();
    std::vector<torch::Tensor> forward(torch::Tensor x);
private:
    CBM conv1{ nullptr };
    CSPLayer layer1{ nullptr };
    CSPLayer layer2{ nullptr };
    CSPLayer layer3{ nullptr };
    CSPLayer layer4{ nullptr };
    CSPLayer layer5{ nullptr };

}; TORCH_MODULE(CSPDarknet53);

CSPDarknet53Impl::CSPDarknet53Impl() {
    conv1 = CBM(3, 32, 1, 1);         // 1x1. (b,3,416,416) -> (b,32,416,416).
    layer1 = CSPLayer(1, 32, 64);     // (b,32,416,416) -> (b,64,208,208).
    layer2 = CSPLayer(2, 64, 128);    // (b,64,208,208) -> (b,128,104,104).
    layer3 = CSPLayer(8, 128, 256);   // (b,128,104,104) -> (b,256,52,52).
    layer4 = CSPLayer(8, 256, 512);   // (b,256,52,52) -> (b,512,26,26).
    layer5 = CSPLayer(4, 512, 1024);   // (b,512,26,26) -> (b,1024,13,13).

    register_module("conv1", conv1);
    register_module("layer1", layer1);
    register_module("layer2", layer2);
    register_module("layer3", layer3);
    register_module("layer4", layer4);
    register_module("layer5", layer5);
}

std::vector<torch::Tensor> CSPDarknet53Impl::forward(torch::Tensor x) {
    x = conv1->forward(x);    // 1x1. (b,3,416,416) -> (b,32,416,416).
    
    x = layer1->forward(x);   // (b,32,416,416) -> (b,64,208,208).
    x = layer2->forward(x);   // (b,64,208,208) -> (b,128,104,104).
    torch::Tensor x1 = layer3->forward(x);   // (b,128,104,104) -> (b,256,52,52).
    torch::Tensor x2 = layer4->forward(x1);   // (b,256,52,52) -> (b,512,26,26).
    torch::Tensor x3 = layer5->forward(x2);   // (b,512,26,26) -> (b,1024,13,13).
    return std::vector<torch::Tensor>({ x1, x2, x3 });  // (b,256,26,26) (b,512,13,13)
}

CBM

// Mish activation
class MishImpl : public torch::nn::Module {
public:
    MishImpl() {}
    torch::Tensor forward(torch::Tensor x) {return x * torch::tanh(torch::softplus(x)); }
}; TORCH_MODULE(Mish);

//Conv2d + BatchNorm2d + Mish
class CBMImpl : public torch::nn::Module {
public:
    CBMImpl(int in_channels, int out_channels, int kernel_size, int stride = 1);
    torch::Tensor forward(torch::Tensor x);
private:
    // Declare layers
    torch::nn::Conv2d conv{ nullptr };
    torch::nn::BatchNorm2d bn{ nullptr };
    Mish mish{ nullptr };
}; TORCH_MODULE(CBM);

/// <summary>
/// Conv+Bn+Mish: 通过步长控制是否下采样. 使用了padding操作。
/// </summary>
CBMImpl::CBMImpl(int in_channels, int out_channels, int kernel_size, int stride) :
    conv(conv_options(in_channels, out_channels, kernel_size, stride, int(kernel_size / 2), 1, false)),
    bn(torch::nn::BatchNorm2d(out_channels)),
    mish(Mish())
{
    register_module("conv", conv);
    register_module("bn", bn);
}
torch::Tensor CBMImpl::forward(torch::Tensor x) {
    x = conv->forward(x);
    x = bn->forward(x);
    x = mish->forward(x);
    return x;
}

CSPLayer

// 5个csp layer: 每个layer由一次下采样,加多个csp组成。
class CSPLayerImpl : public torch::nn::Module {
public:
    CSPLayerImpl(int res_n, int in_channels, int out_channels);
    torch::Tensor forward(torch::Tensor x);
private:
    CBM down_conv{ nullptr };
    CSPX cspx{ nullptr };
}; TORCH_MODULE(CSPLayer);

CSPLayerImpl::CSPLayerImpl(int res_n, int in_channels, int out_channels) {
    down_conv = CBM(in_channels, out_channels, 3, 2);      // 2*channels. scale/2.
    cspx = CSPX(res_n, out_channels, out_channels);  // keep channels and scale unchange.

    register_module("down_conv", down_conv);
    register_module("cspx", cspx);
}

// cspDarknet一共有5个layer. 每个layer前面都是一个下采样
torch::Tensor CSPLayerImpl::forward(torch::Tensor x) {
    x = down_conv->forward(x);  // 2*channels. scale/2.
    x = cspx->forward(x);       // keep channels and scale unchange.
    return x;
}

CSPX

// CSPX: split. 每个CSP模块前面的卷积核的大小都是3*3,stride=2,因此可以起到下采样的作用。
// CSPX: 输入和输出维度是一样的。
class CSPXImpl : public torch::nn::Module {
public:
    CSPXImpl(int res_n, int in_channels, int out_channels);
    torch::Tensor forward(torch::Tensor x);
private:
    CBM cbm1{ nullptr };  // splict0
    CBM cbm2{ nullptr };  // splict1

    torch::nn::Sequential res_block_list = torch::nn::Sequential();
    CBM cbm3{ nullptr };  

}; TORCH_MODULE(CSPX);

CSPXImpl::CSPXImpl(int res_n, int in_channels, int out_channels) {
    // split
    cbm1 = CBM(in_channels, in_channels / 2, 1, 1);  // 1x1卷积. 分支1
    cbm2 = CBM(in_channels, in_channels / 2, 1, 1);  // 1x1卷积, 分支2

    // 分支1
    for (int i = 0; i < res_n; i++) res_block_list->push_back(ResBlock(in_channels / 2, in_channels / 2, 3, 1));    
    cbm3 = CBM(in_channels / 2, in_channels / 2, 3, 1);

    register_module("cbm1", cbm1);
    register_module("cbm2", cbm2);
    register_module("cbm3", cbm3);
    register_module("res_block_list", res_block_list);
}
torch::Tensor CSPXImpl::forward(torch::Tensor x) {
    // split
    torch::Tensor split_b1 = cbm1->forward(x);
    torch::Tensor split_b2 = cbm1->forward(x);

    split_b1 = res_block_list->forward(split_b1);
    split_b1 = cbm3->forward(split_b1);
    
    torch::Tensor csp_res = torch::cat({ split_b1, split_b2 }, 1);
    return csp_res;
}

1.2 Neck

特征融合方式,yolov3使用的是FPN,而yolov4组合使用了SPP和PAN.

1.2.1 FPN

FPN,Feature Pyramid Network结构示意图如下。FPN结构通过上采样不断的融合不同尺度的特征,得到多尺度的输出,使得网络能够预测多尺度目标。

yolov3中的Darknet53输出三种尺度的特征(b,1024,13,13), (b,512,26,26), (b,256,52,52),经过FPN结构输出的对应结果尺度是(b,num_anchor*(5+num_cls),13,13), (b,num_anchor*(5+num_cls),26,26), (b,num_anchor*(5+num_cls),52,52).

yolov3中FPN结构如下。

1.2.2 PAN

PAN, Path Aggregation Network(路径聚合网络)网络结构如下。左边和右边的PAN区别在于不同尺度特征融合方式,左边是相加、右边是concat方式。

FPN(Feature Pyramid Network)和PAN(Path Aggregation Network)是两种常用于多尺度目标检测和语义分割任务的神经网络模型,它们的相同点和不同点如下所述:

相同点:多尺度特征融合,FPN和PAN都采用类似的特征金字塔结构来融合不同尺度的特征,以捕捉目标物体的多尺度信息。

不同点:连接方式不同,FPN是自顶向下的路径,从而形成一个单一的特征金字塔。而PAN则包含了自顶向下和自下而上的路径,路径更多,以实现不同分辨率的特征融合。

yolov4中PAN结构如下。

PANet 细化图

// PAN: Path Aggregation Network
class PANImpl : public torch::nn::Module {
public:
    PANImpl();
    std::vector<torch::Tensor> forward(std::vector<torch::Tensor> x);
private:
    UpConv up1{ nullptr };
    UpConv up2{ nullptr };
    DownConv down1{ nullptr };
    DownConv down2{ nullptr };
    CBM conv1{ nullptr };
    CBM conv2{ nullptr };
    CBM conv3{ nullptr };
    CBM conv4{ nullptr };
    CBM conv5{ nullptr };
    CBM conv6{ nullptr };
    CBM conv7{ nullptr };
}; TORCH_MODULE(PAN);

PANImpl::PANImpl()
{
    // up
    up1 = UpConv(1024, 256, 3, 1);      // (b,1024,13,13) -> (b,256,26,26)
    conv1 = CBM(512, 256, 3, 1);        // (b,512,26,26) -> (b,256,26,26)

    up2 = UpConv(512, 128, 3, 1);       // (b,512,26,26) -> (b,128,52,52)
    conv2 = CBM(256, 128, 3, 1);        // (b,256,52,52) -> (b,128,52,52)

    // down
    down1 = DownConv(256, 256, 3, 1);   // (b,256,52,52) -> (b,256,26,26)
    conv3 = CBM(512, 256, 3, 1);        // (b,512,26,26) -> (b,256,26,26)

    down2 = DownConv(512, 512, 3, 1);  // (b,512,26,26) -> (b,512,13,13)
    conv4 = CBM(1024, 512, 3, 1);       // (b,1024,13,13) -> (b,512,13,13)

    // output
    conv5 = CBM(256, 75, 3, 1);          // (b,256,52,52) -> (b,75,52,52)
    conv6 = CBM(512, 75, 3, 1);            // (b,512,26,26) -> (b,75,26,26)
    conv7 = CBM(1024, 75, 3, 1);        // (b,1024,13,13) -> (b,75,13,13)

    register_module("up1", up1);
    register_module("up2", up2);
    register_module("down1", down1);
    register_module("down2", down2);
}

// x0, x1, x2: 52, 26, 13
std::vector<torch::Tensor> PANImpl::forward(std::vector<torch::Tensor> x) {
    // up
    torch::Tensor up1_tensor = up1->forward(x[2]);                       // (b,1024,13,13) -> (b,256,26,26)
    torch::Tensor x1 = conv1->forward(x[1]);                             // (b,512,26,26) -> (b,256,26,26)
    torch::Tensor up1_output = torch::cat({ up1_tensor, x1 }, 1);        // (b,256,26,26) -> (b,512,26,26)
    
    torch::Tensor up2_tensor = up2->forward(up1_output);                // (b,512,26,26) -> (b,128,52,52)
    torch::Tensor x2 = conv2->forward(x[0]);                            // (b,256,52,52) -> (b,128,52,52)
    torch::Tensor up2_output = torch::cat({ up2_tensor, x2 }, 1);       // (b,128,52,52) -> (b,256,52,52)
    // down
    torch::Tensor down1_tensor = down1->forward(up2_output);            // (b,256,52,52) -> (b,256,26,26)
    torch::Tensor x3 = conv3->forward(up1_output);                      // (b,512,26,26) -> (b,256,26,26)
    torch::Tensor down1_output = torch::cat({ down1_tensor, x3 }, 1);   // (b,256,26,26)  -> (b,512,26,26)
    
    torch::Tensor down2_tensor = down2->forward(down1_output);          // (b,512,26,26) -> (b,512,13,13)
    torch::Tensor x4 = conv4->forward(x[2]);                            // (b,1024,13,13) -> (b,512,13,13)
    torch::Tensor down2_output = torch::cat({ down2_tensor, x4 }, 1);   // (b,512,13,13) -> (b,1024,13,13)
    // output
    torch::Tensor output0 = conv5->forward(up2_output);                 // (b,256,52,52) -> (b,75,52,52)
    torch::Tensor output1 = conv6->forward(down1_output);               // (b,512,26,26) -> (b,75,26,26)
    torch::Tensor output2 = conv7->forward(down2_output);               // (b,1024,13,13) -> (b,75,13,13)

    return std::vector<torch::Tensor>({ output0, output1, output2 });   // (b,75,52,52), (b,75,26,26), (b,75,13,13)
}

1.2.3 SPP

SPP,Spatial Pyramid Pooling结构如下。下面是传统意义上的SPP结构,通过把输出划分成不同的网格数,每个网格使用不同尺度核大小的maxpool。输出固定大小的向量。

如下图所示,每个网络输出一个值,有256个通道,则最大池化后,输出的向量维度是固定的,左边的4x4个网格,输出向量维度是16x256,中间是2x2个网格,输出向量维度是4x256,右边是1x1的网格,输出向量维度是256. 最后的拼接在一起,所以最后的向量维度是固定的。方便分类网络兼容多尺度输入。

** yolov4**中的SPP结构如下。可以看到有4个分支,每个分支都是最大池化,从左往右最大池化核大小是k={5x5, 9x9, 13x13, 1x1}. 采用了padding操作,使其输出不改变尺度。

注意通道维度变化,先是利用conv,将通道降低4倍,之后每个分支的通道都是1/4,最后再concat再一起变成原始通道数。如下所示。


// SPP: three maxpooling. Change maximum pooling to convolution form
class SPPImpl : public torch::nn::Module {
public:
    SPPImpl();
    torch::Tensor forward(torch::Tensor x);
private:
    CBM conv1{ nullptr };
    CBM max_pool1{ nullptr };
    CBM max_pool2{ nullptr };
    CBM max_pool3{ nullptr };
    CBM conv2{ nullptr };
}; TORCH_MODULE(SPP);

/// <summary>
/// 这里最大池化改采用卷积形式,卷积核大小分别是3,5,9,13. padding操作,移动的步长为1,不改变特征尺度。
/// </summary>
SPPImpl::SPPImpl() :
    conv1(CBM(1024, 256, 3, 1)),
    max_pool1(CBM(256, 256, 5, 1)),
    max_pool2(CBM(256, 256, 9, 1)),
    max_pool3(CBM(256, 256, 13, 1)),
    conv2(CBM(1024, 1024, 3, 1))
{
    register_module("conv1", conv1);
    register_module("max_pool1", max_pool1);
    register_module("max_pool2", max_pool2);
    register_module("max_pool3", max_pool3);
    register_module("conv2", conv2);
}
torch::Tensor SPPImpl::forward(torch::Tensor x) {
    // 1, down channels
    x = conv1->forward(x);                     // (b,1024,13,13) -> (b,256,13,13)
    // 2, spp
    torch::Tensor x1 = max_pool1->forward(x);  // kernel_size = 5
    torch::Tensor x2 = max_pool2->forward(x);  // 9
    torch::Tensor x3 = max_pool3->forward(x);  // 13
    x = torch::cat({ x, x1, x2, x3 }, 1);      // (b,256,13,13) -> (b,1024,13,13)
    // 3, conv
    x = conv2->forward(x);                     // (b,1024,13,13) -> (b,1024,13,13)
    return x;
}

1.3 Head

yolov3和yolov4的head是一样的,都基于anchor,输出多个尺度结果:

(b,num_anchor*(5+num_cls),13,13).

(b,num_anchor*(5+num_cls),26,26).

(b,num_anchor*(5+num_cls),52,52).

2. ​​​​​数据增强​​​​​

YOLOv4在数据增强方面比YOLOv3做得更好。YOLOv4使用了一系列新的数据增强技术,如CutMix、Mosaic等,可以帮助模型更好地学习不同角度、不同大小、不同位置的目标,从而提高模型的鲁棒性和泛化能力。而YOLOv3则使用了一些基本的数据增强技术,如随机裁剪、随机翻转等。

2.1 CutMix

两张图片,随机裁剪其中一张图片,粘贴到另一张图片中。

2.2 Mosaic

Mosaic数据增强方法采用随机缩放、随机裁剪、随机排列的方式拼接,形成一张新的图片作为训练数据。这种增强方法可以提高模型的泛化能力,增强模型对于多样化背景、物体大小、旋转角度等情况的识别能力。

3. 激活函数

非单调的Mish激活函数是在单调递增的softplus激活函数基础上,再外包了一个单调递增的tanh激活函数。如下所示。

4. 损失函数

yolov4使用的是CIoU-loss,yolov3

Smoothing

5. 正则化方法

DropBlock.

借鉴cutout数据增强技术,区别是cutout是只应用到输入图像层,而DropBlock则是将cutout应用到每一个特征图,而且不是固定归零比如,是随着训练线性增加的一个比率。


知识点

参数量计算公式:

params = C_o\times (k_w\times k_h \times C_i +1)

其中括号内是一个卷积核的参数量,+1是bias,C_o是卷积核个数。

计算量计算公式:

FLOPs = [(C_i\times k_w \times k_h) + (C_i \times k_w \times k_h - 1) + 1] \times C_o \times W \times H

中括号内是计算出feature map中一个点所需要的计算量,一次卷积的计算量。其中第一个小括号是乘法计算量,第二个括号是加法计算量,-1是因为加法是逐个往第一个数累加的原因,+1是bias。有C_o x W x H个输出点。

参考:

深入浅出Yolo系列之Yolov3&Yolov4&Yolov5&Yolox核心基础知识完整讲解 - 知乎YOLOv4特征提取网络——CSPDarkNet结构解析及PyTorch实现 - 知乎深入浅出Yolo系列之Yolov3&Yolov4&Yolov5&Yolox核心基础知识完整讲解 - 知乎

目标检测 - Neck的设计 PAN(Path Aggregation Network)_西西弗Sisyphus的博客-CSDN博客_pan 目标检测


本文转载自: https://blog.csdn.net/jizhidexiaoming/article/details/129137599
版权归原作者 Mr.Q 所有, 如有侵权,请联系我们删除。

“对比yolov4和yolov3”的评论:

还没有评论