0


DarkNet网络结构

一、darknet53网络结构图

文字版:卷积+(下采样卷积+1残差块)+(下采样卷积+2残差块)+(下采样卷积+8残差块)+(下采样卷积+8残差块)+(下采样卷积+4*残差块)

在这里插入图片描述

 不难看出,darknet53就是重复堆叠**下采样卷积+n*残差块**(n为残差块的个数)这个结构而组成的。而更基本的结构就是残差块了,因此我们先构建出残差块,然后重复堆叠上述结构darknet53就完成了。

二、残差快结构

   残差块结构不止下图这一种,但我们只讨论darknet53中用到的这种。如下图所示,残差块结构由两条支路组成,一条支路将上一层输出的feature map进行卷积等操作,另一条支路将上一层输出的feature map**恒等映射**,并与刚才卷积操作完的feature map进行**逐元素相加**,因此两条支路的**通道数必须相等**。也就是说发生卷积等操作的那条支路(残差路)的输出不能改变feature map的通道数。

另外,darknet53在所有的卷积之后和激活(leakyrelu)之前会插入bn层(batch normalization)。

import torch
import torch.nn as nn
# 残差模块
class ResidualBlock(nn.Module):
    def __init__(self,inplanes,planes):
        # inplanes是下采样卷积完输入到残差支路的通道数,planes是一个列表,planes[0]是残差第一个卷积操作输出通道数,也是第二个卷积操作输入通道数
        # planes[1]是残差第二个卷积操作输出通道数
        super(ResidualBlock,self).__init__()
        # 残差支路的第一个卷积操作:卷积核1*1,步长1,不填充,不加偏置
        self.conv1 = nn.Conv2d(inplanes,planes[0],kernel_size=1,stride=1,padding=0,bias=False)
        # bn层的输入参数是上一层输出的通道数
        self.bn1 = nn.BatchNorm2d(planes[0])
        # LeakyReLU的参数是负半轴的斜率,正半轴是1
        self.relu1 = nn.LeakyReLU(0.1)
        # 残差支路的第二个卷积操作:卷积核3*3,步长1,填充1(p=1),不加偏置
        # 卷积输出尺寸计算公式 (n-f+2p)/s+1 此处f=3,p=1,s=1
        self.conv2 = nn.Conv2d(planes[0],planes[1],kernel_size=3,stride=1,padding=1,bias=False)
        self.bn2 = nn.BatchNorm2d(planes[1])
        self.relu2 = nn.LeakyReLU(0.1)

        # 【注】darknet的基本操作:卷积+bn+relu

    def forward(self,x):
        # 恒等映射支路
        residual = x 
        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu1(out)
        out = self.conv2(out)
        out = self.bn2(out)
        out = self.relu2(out)
        # 将恒等映射与残差路逐元素相加    
        out = residual + out

基本结构:下采样卷积+残差块

下图示下采样卷积+n*残差块结构:

在这里插入图片描述

   除了第一个单独的卷积+bn+激活操作,一共有5组**下采样卷积+n*残差块**,按顺序是:(下采+1*残差)(下采+2*残差)(下采+8*残差)(下采+8*残差)(下采+4*残差),所以待会儿会出现一个储存残差块个数的列表blocks_num=[1,2,8,8,4]

本文转载自: https://blog.csdn.net/a15608445683/article/details/127914208
版权归原作者 追光少年羽 所有, 如有侵权,请联系我们删除。

“DarkNet网络结构”的评论:

还没有评论