深入浅出CenterFusion
Summary
自动驾驶汽车的感知系统一般由多种传感器组成,如lidar、carmera、radar等等。除了特斯拉基于纯视觉方案来进行感知之外,大多数研究还是利用多种传感器融合来建立系统,其中lidar和camera的融合研究比较多。
CenterFusion这篇文章基于nuscenes数据集研究camera和radar的特征层融合,图像部分采用的是CenterNet,radar点云部分采用了pillar expansion后通过roi frustum来与图像检测到的box进行匹配,radar特征提取与CenterNet类似,利用radar点云的vx、vy以及depth分别构建heatmap后与图像特征进行拼接来完成融合。官方代码仓库链接
总体思路还是将雷达点云投射到图像数据中,特征层进行通道拼接,再利用卷积网络进行回归。检测分为两个阶段,Primary Regression Heads的结果除了输出外,还用来进行点云数据和box的匹配;Secondary Regression Heads由于拼接了雷达特征,可以修正Primary Regression Heads的预测结果,同时给出额外的信息,目标速度和属性等等。
主要解决了如下问题:
问题方案毫米波雷达点云数据有很多杂波,和真实物体经常是一对多的关系,难以与图像box进行匹配利用3D视椎体来过滤和筛选点云,加快匹配速度,同时过滤无效的点云一般的毫米波雷达点云数据没有高度信息,很难准确与图像中的box进行匹配Pillar Expansion, 将点扩充为3D pillar,增大匹配概率毫米波雷达点云数据非常稀疏,以致于表征能力弱,在整个网络中的权重较低利用与之匹配的box来扩充雷达点云覆盖范围,由一个点转变成一小块矩形区域,提取点云heatmap作为点云特征
- 图片特征提取及Primary Regression 修改了CenterNet的Head,利用全卷积backbone进行特征提取的时候,进行一个初步的回归,得到目标的2D Box 和3D Box
- 雷达点云和2D图像目标匹配- 3D 视椎体 利用Primary Regression Heads得到的每个3D Box的深度depth、观测角alpha、3D框尺寸dim,再加上相机标定矩阵来生成3D视椎体(每个可能的Box都生成一个),类似Roi提取,加快匹配速度的同时,过滤无效的点云。> 观测角和标定矩阵是为了计算yaw角- 雷达点云Pillar Expansion 雷达点云没有高度信息,将点云扩充为固定大小的3D柱子,增大点云匹配的概率(相对用点表示目标物,用柱子表示能够增加在3D空间中的体积,进而增大匹配的概率)- 点云匹配 pillar投影到pixel坐标系与2D box进行匹配; pillar投影到相机坐标系与构造的3D视椎体进行深度值匹配
- 雷达点云特征提取 对于每一个与视椎体关联到雷达目标,利用图像中2D检测框的位置生成三张heatmap,三张heatmap concat到图片的特征中作为额外通道,进而完成融合
- 利用融合特征进行Secondary Regression 除了估计目标速度之外,还重新估计了目标的深度和角度(结合了雷达特征,估计更精确)
- 3D Box Decoder 综合Primary和Secondary Regression Heads的输出,还原出3D目标检测结果(位置、大小、姿态、速度,以及类别等属性),其中dep和rot在两个heads里都有,则只利用准确度更高的second regression heads
背景知识
如果没有了解过相关内容,可以按下顺序来看,CenterFusion里的大部分代码都是来自于CornerNet和CenterNet
- 3D目标检测基础知识
- CornerNet:目标检测算法新思路
- 扔掉anchor!真正的CenterNet——Objects as Points论文解读
- CenterTrack深度解析
重点内容
Backbone结构
Backbone沿用了CenterNet的DLA-34作为全卷积骨干网络, 并将可变形卷积DeformConv引入。关于网络结构内容可参考CenterFusion(基于CenterNet)源码深度解读: :DLA34
全卷积骨干网络以图像
I
∈
R
W
×
H
×
3
I \in R^{W \times H \times 3}
I∈RW×H×3作为输入,生成key points heatmap:
Y
^
∈
[
0
,
1
]
W
R
×
H
R
×
C
\hat{Y} \in[0,1]^{\frac{W}{R} \times \frac{H}{R} \times C}
Y^∈[0,1]RW×RH×C,其中 W 和 H是图像的宽度和高度,R是下采样比,C 是物体类别的数量。heatmap中的每一个像素的取值在[0,1]之间。再通过回归图像特征的方法来实现对图像上目标中心点的预测,以及对目标的 2D 大小(宽度和高度)、中心偏移量、3D 尺寸、深度和旋转等信息的提取。以上均继承于CenterNet。
训练数据的图像尺寸为
3
×
900
×
1600
3\times900\times1600
3×900×1600,下采样比为2,为了下采样不产生余数,入模图像的尺寸为
3
×
448
×
800
3\times448\times800
3×448×800。
雷达点云和2D图像目标匹配
基于视锥的匹配
- 3D视椎体缩小了匹配范围,进而加快匹配速度
- 相比于直接将雷达点云投射到2D图像,3D视锥能够区分2D图像中重叠或被遮挡的目标
- 使用参数 δ \delta δ来调节 ROI 视椎体的大小,这是为了解决估计的深度值的不准确性,因为ROI视椎匹配时,使用的深度值 d ^ \hat{d} d^是通过图像特征估计出来的。调节视椎体大小的目的是为了尽可能的给每一个box找到至少一个雷达点云来匹配,即使匹配到多个点云,后面直接取深度最小的点云来完成box内的点云去重。如下为BEV视角示意图> 只在infer阶段用参数δ,实际调节的是视椎体的深度范围, 增加此参数的目的更多是降低漏检率。代码中用
frustumExpansionRatio
来表示调节参数,根据视锥体的深度范围计算得到一个dist_thresh, 其中 δ = d i s t _ t h r e s h ∗ f r u s t u m E x p a n s i o n R a t i o n \delta = dist_thresh * frustumExpansionRation δ=dist_thresh∗frustumExpansionRation, d ^ \hat{d} d^是primary head输出的3D box depth或GT depth。 图中绿色虚线是经过调节的视锥体深度值范围,深度值在此范围内的雷达点云,与这个对应的box匹配。其中roi frustum和dist_thresh构造程序如下:# 对每一个3D box,计算roi frustum的8个角点, roi frustum为3D box的包围盒,# 且roi frustum在pixel坐标系下的投影为2D boxdefcomput_corners_3d(dim, rotation_y):# dim: 3# location: 3# rotation_y: 1# return: 8 x 3 c, s = torch.cos(rotation_y), torch.sin(rotation_y)# dim是相机坐标系下的长宽高,下面计算的也是相机坐标系下的3D box的8个角点# 自动驾驶车辆在地面上行驶,一般只考虑偏航角,利用rotation_y构造旋转矩阵# 航向角为绕y轴旋转,所以旋转矩阵为 R = torch.tensor([[c,0, s],[0,1,0],[-s,0, c]], dtype=torch.float32) l, w, h = dim[2], dim[1], dim[0] x_corners =[l/2, l/2,-l/2,-l/2, l/2, l/2,-l/2,-l/2] y_corners =[0,0,0,0,-h,-h,-h,-h] z_corners =[w/2,-w/2,-w/2, w/2, w/2,-w/2,-w/2, w/2] corners = torch.tensor([x_corners, y_corners, z_corners], dtype=torch.float32)# 相机坐标下的3D box的8个角点左乘旋转矩阵,得到roi frustum的8个角点,# 对应的roi frustum在pixel坐标系下的投影,刚好为2D box corners_3d = torch.mm(R, corners).transpose(1,0)return corners_3ddefget_dist_thresh(calib, ct, dim, alpha): rotation_y = alpha2rot_y(alpha, ct[0], calib[0,2], calib[0,0]) corners_3d = comput_corners_3d(dim, rotation_y) dist_thresh =max(corners_3d[:,2])-min(corners_3d[:,2])/2.0return dist_thresh
雷达点云目标和图像2D目标一般是多对一的关系,如果视锥体内有多个雷达点云,则只保留深度最小(距离最近)的点云,消除冗余的雷达点云数据。匹配结果如下:
- top image: 将雷达点云扩充为3D Pillar后投影到pixel坐标系
- middle image: 根据点云的深度直接将3D Pillar 投射到2D图像。点云去重前
- bottom image: 视锥匹配后,同时对雷达点云进行特征提取,将点云heatmap并投射到2D图像。点云去重后
视锥的使用并不是先例, TLNet和Frustum PointNet等anchor based方法均利用了视锥来过滤anchor,因为稠密的anchor带来巨大的计算量,2D检测结果形成的3D视锥可以过滤掉大量背景上的anchor。
TLNetFrustum PointNet
雷达点云特征提取
因为图像是经过CenterNet转换成了heatmap,同时对雷达点云和图像中的BOX进行了一对一的匹配,为了将图像数据和雷达点云数据更好的融合,论文将雷达点云特征转换为heatmap,进而在通道上拼接(concat)来完成融合。
具体为,将点云数据的深度、速度x分量,速度y分量作为三个通道。对每一个与雷达点云匹配的2D Box,在2D Box内部分别以三个通道值填充一个Box(暂称为次级Box),次级Box的中心与原始2D Box的中心重合,大小与原始Box成比例, 比例通过
α
\alpha
α参数控制
注: 雷达测量的速度是径向速度
F
x
,
y
,
i
j
=
1
M
i
{
f
i
∣
x
−
c
x
j
∣
≤
α
w
j
and
∣
y
−
c
y
i
∣
≤
α
h
j
0
otherwise
,
F_{x, y, i}^{j}=\frac{1}{M_{i}}\left\{\begin{array}{ll} f_{i} & \left|x-c_{x}^{j}\right| \leq \alpha w^{j} \quad \text { and } \\ & \left|y-c_{y}^{i}\right| \leq \alpha h^{j} \\ 0 & \text { otherwise } \end{array},\right.
Fx,y,ij=Mi1⎩⎨⎧fi0x−cxj≤αwj and y−cyi≤αhj otherwise ,
三个通道分别为
(
d
,
v
x
v
y
)
\left(d, v_{x}\right. \left.v_{y}\right)
(d,vxvy),其中i是雷达的特征图通道,且
i
∈
1
,
2
,
3
i\in 1,2,3
i∈1,2,3,
M
i
M_{i}
Mi是每个通道的归一化因子,
c
x
j
,
c
y
j
c_{x}^{j}, c_{y}^{j}
cxj,cyj是与之匹配的第
j
j
j个2D box的中心坐标,
w
j
,
h
j
w^{j}, h^{j}
wj,hj是第
j
j
j个2D box的宽和高,
α
\alpha
α是一个超参数,用于控制次级Box的大小。
点云heatmap的分布与CenterNet有些差异,CenterNet的heatmap是以中心点的取值生成的高斯分布,而点云heatmap是以2D box中心点生成一个成比例大小的Box,Box内取值相同,Box外取值为0。
3D Box Decoder
利用Primary Head和Secondary Head的预测结果,对3D Box进行解码,得到3D Box的
- 中心点3D坐标、长宽高、航向角
- 中心点2D坐标
- 目标类别、速度等
通过目标的尺寸信息,可计算出3D Box角点关于目标中心的相对坐标。进而通过中心点坐标和航向信息计算出3D框体角点的全局坐标,最终返回全局坐标
其他
目标角度in-bin regression
做过机器学习的都知道,有一个重要的步骤叫做特征工程,某个变量难以直接拟合或拟合效果不好时,需要进行一些encoding。因为直接回归角度标量有点困难,可以先大致判断位于哪个角度区间,然后在区间内进行offset回归
论文中不直接回归观测角
α
\alpha
α,而是将
α
\alpha
α取值范围编码为两个bins:
[
−
7
p
i
6
,
p
i
6
]
,
[
−
p
i
6
,
7
p
i
6
]
[\frac{-7pi}{6}, \frac{pi}{6}], [\frac{-pi}{6}, \frac{7pi}{6}]
[6−7pi,6pi],[6−pi,67pi]。每个bin包含4个标量,维度合计为8。对于一个bin,两个值用作softmax分类,其余两个值对每个bin中的角度中值的offset进行回归。这里其实是沿用了CenterNet的角度回归方式。代码如下:
def_add_rot(self, ret, ann, k, gt_det):if'alpha'in ann:
ret['rot_mask'][k]=1
alpha = ann['alpha']if alpha < np.pi /6.or alpha >5* np.pi /6.:
ret['rotbin'][k,0]=1
ret['rotres'][k,0]= alpha -(-0.5* np.pi)if alpha >-np.pi /6.or alpha <-5* np.pi /6.:
ret['rotbin'][k,1]=1
ret['rotres'][k,1]= alpha -(0.5* np.pi)
gt_det['rot'].append(self._alpha_to_8(ann['alpha']))else:
gt_det['rot'].append(self._alpha_to_8(0))def_alpha_to_8(self, alpha):
ret =[0,0,0,1,0,0,0,1]if alpha < np.pi /6.or alpha >5* np.pi /6.:
r = alpha -(-0.5* np.pi)
ret[1]=1
ret[2], ret[3]= np.sin(r), np.cos(r)if alpha >-np.pi /6.or alpha <-5* np.pi /6.:
r = alpha -(0.5* np.pi)
ret[5]=1
ret[6], ret[7]= np.sin(r), np.cos(r)return ret
CenterNet论文的附录给出了详细公式,,Loss分为两部分:前半部分用softmax分类,判断角度位于哪个bin,损失函数为cross entropy ;后半部回归角度关于对应bin中心取值(就是角度平均值)的offset,对offset取正弦或余弦值作为角度残差,并计算与角度残差GT的L1 loss
L
ori
=
1
N
∑
k
=
1
N
∑
i
=
1
2
(
softmax
(
b
^
i
,
c
i
)
+
c
i
∣
a
^
i
−
a
i
∣
)
L_{\text {ori }}=\frac{1}{N} \sum_{k=1}^{N} \sum_{i=1}^{2}\left(\operatorname{softmax}\left(\hat{b}_{i}, c_{i}\right)+c_{i}\left|\hat{a}_{i}-a_{i}\right|\right)
Lori =N1k=1∑Ni=1∑2(softmax(b^i,ci)+ci∣a^i−ai∣)
其中
c
i
=
1
(
θ
∈
B
i
)
,
a
i
=
(
sin
(
θ
−
m
i
)
,
cos
(
θ
−
m
i
)
)
c_{i}=\mathbb{1}\left(\theta \in B_{i}\right), a_{i}=\left(\sin \left(\theta-m_{i}\right), \cos \left(\theta-m_{i}\right)\right)
ci=1(θ∈Bi),ai=(sin(θ−mi),cos(θ−mi)),
b
^
i
\hat{b}_{i}
b^i是网络估计值, 表示该角度属于第几个bin,
m
i
m_{i}
mi为第i个bin的中心取值。
观测角的估计可以通过下面的公式得到,
j
j
j是classfication score较大的那个bin的index。即通过角度所属bin的中值,加上一个三角函数offset,得到观测角度。
θ
^
=
arctan
2
(
a
^
j
1
,
a
^
j
2
)
+
m
j
\hat{\theta}=\arctan 2\left(\hat{a}_{j 1}, \hat{a}_{j 2}\right)+m_{j}
θ^=arctan2(a^j1,a^j2)+mj
代码中将角度八元组表示为rot, 后处理时会转换成观测角alpha和航向角yaw(又称rotaition_y,因为相机坐标系的重力轴为y轴,航向角为绕重力轴旋转时,与参考方向的夹角)
defget_alpha(rot):# rot: (B, 8) [bin1_cls[0], bin1_cls[1], bin1_sin, bin1_cos,# bin2_cls[0], bin2_cls[1], bin2_sin, bin2_cos]# return alpha[B, 0]
idx = rot[:,1]> rot[:,5]
alpha1 = torch.atan2(rot[:,2], rot[:,3])+(-0.5*3.14159)
alpha2 = torch.atan2(rot[:,6], rot[:,7])+(0.5*3.14159)# return alpha1 * idx + alpha2 * (~idx)
alpha = alpha1 * idx.float()+ alpha2 *(~idx).float()return alpha
defalpha2rot_y(alpha, x, cx, fx):"""
Get rotation_y by alpha + theta - 180
alpha : Observation angle of object, ranging [-pi..pi]
x : Object center x to the camera center (x-W/2), in pixels
rotation_y : Rotation ry around Y-axis in camera coordinates [-pi..pi]
"""
rot_y = alpha + np.arctan2(x - cx, fx)if rot_y > np.pi:
rot_y -=2* np.pi
if rot_y <-np.pi:
rot_y +=2* np.pi
return rot_y
为什么这样进行角度估计
网络拟合的是观测角alpha的相关编码,最后还是要通过相机内参转换为航向角,那么为什么不直接拟合航向角呢?
因为航向角是相对于世界坐标系的,而观测角是相对于相机坐标系的。所以网络拟合的是观测角,但是最终输出的是航向角。除了这个原因之外,Bounding box estimation using deep learning and geometry. In CVPR, 2017
的4.1章指出:仅通过目标的图像估计其全局偏航角是不可能的,并提出了
MultiBin Orientation Estimation
,CenterNet系列论文均参考了此类方法。
由下图可以看出,目标的偏航角保持固定的情况下,随着位移的改变,其局部图像上看似乎发生了旋转,导致相对角度发生了变化。"看上去"就像汽车在旋转一样。这种特性对于CNN而言极其不利,因为如果采用全局偏航角作为ground truth,CNN需要将看上去转角不同的图像映射到同一个答案上,即多对一情况,这完全无法训练出准确的结果。
因此论文采用局部相对角(目标朝向相对相机射线)来作为GT,即通过估计图中的
θ
l
\theta_{l}
θl,再通过几何关系间接得到全局偏航角,图中为
θ
\theta
θ。针对
θ
l
\theta_{l}
θl,采用了MultiBin Orientation Estimation方法,将角度划分为几个区间,预测落在哪个区间,以及相对区间的offset。CenterNet系列文章拟合是观测角
α
\alpha
α的编码,
α
\alpha
α与这里的
θ
l
\theta_{l}
θl存在几何关系
目标深度估计
利用单目摄像头直接回归中心点的深度信息非常困难,CenterNet系列的论文均参考了Depth Map Prediction from a Single Image using a Multi-Scale Deep Network
这一里程碑式的工作, 对网络输出的深度标量进行
inverse sigmoidal transformation
, 用一个单独的head, 基于L1 Loss对变换后的深度进行回归。 对网络估计的深度进行如下转换后再计算depth loss
d
=
1
/
σ
(
d
^
)
−
1
d=1 / \sigma(\hat{d})-1
d=1/σ(d^)−1
其中
d
^
\hat{d}
d^是网络估计的深度值,
σ
\sigma
σ是sigmoid函数,
d
d
d是经过转换的深度值,单位为米。
深度估计的loss定义为:
L
d
e
p
=
1
N
∑
k
=
1
N
∣
1
σ
(
d
^
k
)
−
1
−
d
k
∣
L_{d e p}=\frac{1}{N} \sum_{k=1}^{N}\left|\frac{1}{\sigma\left(\hat{d}_{k}\right)}-1-d_{k}\right|
Ldep=N1k=1∑Nσ(d^k)1−1−dk
其中
d
k
d_{k}
dk是第k个目标的深度值GT
多模态数据时间对齐
nuscenes数据集的坐标系及关系如下图所示
nuscenes数据集已经通过标定数据将radar点云和摄像图片进行时间对齐,即将radar点云数据投影到全局坐标系下,经过全局坐标系再投影到另一个传感器下达到时间对齐。借助于全局坐标系(绝对坐标系)进行运动补偿,从而完成了不同传感器之间的时间对齐。 实际工作中需要自己完成这一重要步骤。如有必要,还需要进行点radar云数据叠加,增加radar点云的稠密度
- radar外参: radar坐标系到ego(车身)坐标系的复合变换矩阵,
- camera外参: camera坐标系到ego坐标系的复合变换矩阵
- ego_pose: ego坐标系到全局坐标系的复合变换矩阵
最后的通过矩阵乘法将点云投影到当前帧的坐标系下,从而完成时间对齐
# Fuse four transformation matrices into one and perform transform.
trans_matrix =reduce(np.dot,[ref_from_car, car_from_global, global_from_car, car_from_current])
velocity_trans_matrix =reduce(np.dot,[ref_from_car_rot, car_from_global_rot, global_from_car_rot, car_from_current_rot])
current_pc.transform(trans_matrix)
关于多传感器数据对齐,可以参考我写的这篇文章:多传感器时间同步
毫米波雷达点云的问题
- 置信度阈值
- 点云深度信息和目标中心深度不同 FMCW雷达发射的毫米波遇到物体表面就进行反射,所以测的径向距离都是物体表面或反射面到雷达的距离,而视觉算法一般估计的深度信息是物体中心离摄像头的距离,所以利用camera radar融合时,估计的深度和真实的车辆中心位置存在些许误差
REFERENCE
- CenterFusion
- CenterFusion(基于CenterNet)源码深度解读: :DLA34
- CenterNet目标检测模型及CenterFusion融合目标检测模型
- CenterFusion 项目网络架构详细论述
- Deep3DBox论文详解
- 论文阅读笔记 之 3D Bounding Box Estimation Using Deep Learning and Geometry
- Depth Map Prediction from a Single Image using a Multi-Scale Deep Network
- 多传感器时间同步
版权归原作者 Untitled\n 所有, 如有侵权,请联系我们删除。