0


【达摩院OpenVI】基于流感知的视频目标检测网络LongShortNet

论文&代码

  • 论文链接:[arxiv]
  • 代码&应用: - 开源代码:[github code]- 开源应用:[modelscope]

背景介绍

传统视频目标检测(Video Object Detection, VOD)任务以一段视频作为输入,利用视频的时序信息进行目标检测,并最终输出每一帧视频帧的检测结果。其相比图像目标检测(Image Object Detection, IOD)任务,优势在于能够利用视频的时序信息,对运动模糊、图像失焦、遮挡、物体姿态变化等困难的场景具有更强的鲁棒性。然而,传统的VOD和IOD都是离线(offline)的检测,即仅考虑算法的检测精度,未考虑算法的延时。

图1 离线检测与在线检测对比

技术难点

为了更好地理解为什么引入实时目标检测器能够简化Streaming Perception任务,需要先介绍一下此任务的评价指标。流平均精度(Streaming Average Precision, sAP)可以分为两个部分理解,其中"Average Precision"和通用检测一致,而"Streaming"表示,某个时刻的预测结果,会与算法处理完成后下一时刻的真实值(Ground True, GT)匹配,并计算对应的"Average Precision"。具体地,如下图所示,对于非实时的算法,

      I 
     
    
      t 
     
    
   
  
    I_{t} 
   
  
It​时刻的预测结果在下一时刻 
 
  
   
    
    
      I 
     
     
     
       t 
      
     
       + 
      
     
       1 
      
     
    
   
  
    I_{t+1} 
   
  
It+1​到来之后才能得到,如下图左半部分绿色箭头所示,因此与该预测结果配对的是 
 
  
   
    
    
      I 
     
     
     
       t 
      
     
       + 
      
     
       2 
      
     
    
   
  
    I_{t+2} 
   
  
It+2​时刻的GT,而 
 
  
   
    
    
      I 
     
     
     
       t 
      
     
       + 
      
     
       1 
      
     
    
   
  
    I_{t+1} 
   
  
It+1​时刻的GT,会默认使用前一次预测结果进行配对,这样一来,算法一方面“错过”了 
 
  
   
    
    
      I 
     
     
     
       t 
      
     
       + 
      
     
       1 
      
     
    
   
  
    I_{t+1} 
   
  
It+1​时刻的GT,另一方面需要预测更“远”的 
 
  
   
    
    
      I 
     
     
     
       t 
      
     
       + 
      
     
       2 
      
     
    
   
  
    I_{t+2} 
   
  
It+2​时刻的真实环境,因此对算法的挑战更大。相对地,对于实时的算法, 
 
  
   
    
    
      I 
     
    
      t 
     
    
   
  
    I_{t} 
   
  
It​时刻的预测结果在下一时刻 
 
  
   
    
    
      I 
     
     
     
       t 
      
     
       + 
      
     
       1 
      
     
    
   
  
    I_{t+1} 
   
  
It+1​到来之前可以得到,如下图右半部分绿色箭头所示,因此与该预测结果配对的是 
 
  
   
    
    
      I 
     
     
     
       t 
      
     
       + 
      
     
       1 
      
     
    
   
  
    I_{t+1} 
   
  
It+1​时刻的GT,该情况下,算法一方面不会“错过”任何时刻的GT,另一方面仅需要预测下一时刻的真实环境。因此说,引入实时算法能够简化Streaming Perception任务为一个对下一帧真实环境的预测任务。

图2 非实时方法和实时方法的评估示意图

虽然StreamYOLO简化了Streaming Perception任务,但是它仅使用当前帧和前一帧两帧的短时序信息作为输入,难以表征一些复杂的运动状态。如下图(a)所示,在实际自动驾驶环境中,经常会出现以下的,除了匀速直线运动以外的运动状态以及情况:1)非匀速运动(比如加速超车);2)非直线运动(比如转弯);3)遮挡以及小目标。

因此,本文的研究专注于探索如何在Streaming Perception任务中引入长时序信息,以及如何进行时序信息融合,并最终提出了LongShortNet,如下图(b)所示,本文提出的LongShortNet在一些困难场景下,能够达到比StreamYOLO更高的精度。

图3 特殊运动状态示意图

特殊运动状态示例特殊运动状态示例 特殊运动状态示例

方法介绍

LongShortNet的整体结构如下图所示,该方法具有如下的特点:

图4 LongShortNet和LSFM示意图

  1. 提出一种双支路的网络结构,在Streaming Perception领域首次引入了长时序信息。包括短支路(Short Path)和长支路(Long Path),其中短支路用于提取当前视频帧的空间信息,而长支路以历史帧作为输入,用于提取时序信息。其中, N N N和 δ t \delta t δt是两个可调节的参数, N N N用于控制历史帧的数量, δ t \delta t δt用于控制历史帧的间隔步长。
  2. 探索不同的时序融合方式。本文提出了长短融合模块(Long Short Fusion Module, LSFM),探索了1)早融合(early fusion)和晚融合(late fusion);2)时序上不同的重要性分配。具体有如上图(b)所示的四种模块。同时,本文与已有的一些注意力模块也进行了对比。
  3. 提出多帧buffer机制。本文对StreamYOLO方法的buffer机制进行了改进,使其适用于多帧的情况,确保算法保持实时性,简化Streaming Perception任务为时序预测任务。

实验结果

SOTA对比

首先,与目前SOTA方法的对比如下表所示,LongShortNet在常规分辨率((600, 960))下,取得了37.1%的sAP,而在高分辨率((1200, 1920))下,取得了42.7%的sAP,均超过了目前的SOTA精度。

表1 与SOTA对比

消融实验

本文对

     N 
    
   
  
    N 
   
  
N和 
 
  
   
   
     δ 
    
   
     t 
    
   
  
    \delta t 
   
  
δt的取值进行了消融实验,结果如下表所示,在 
 
  
   
   
     N 
    
   
     = 
    
   
     3 
    
   
  
    N=3 
   
  
N=3和 
 
  
   
   
     δ 
    
   
     t 
    
   
     = 
    
   
     1 
    
   
  
    \delta t=1 
   
  
δt=1时,S/M/L模型均能取得比较好的结果。其中,(1, 1)等价于StreamYOLO,由此可见,引入长时序信息有助于算法对复杂运动的预测,从而提升最终的精度。

表2 N和delta t消融实验

本文同时对四种不同的LSFM模块进行了对比实验,如下表所示,LSFM-Lf-Dil取得了最高的精度,说明晚融合和对当前帧保持更大的通道权重,更有利于时空信息的融合。

表3 LSFM模块消融实验

当然,当前帧的通道权重也并非越大越好,如下表所示,通道膨胀权重(dilation channel ratio)取0.5时取得最优结果,更大的权重精度反而下降了。

表4 通道膨胀权重对比实验

另外,本文还将LSFM与现有的注意力方法进行了对比,在LSFM的基础上,加入不同的注意力模块。如下表所示,原始的LSFM取得了最优的结果,且在速度上更有优势。本文并不否认注意力机制的作用,只是其作用可能需要在具备更大规模的数据集和更长时序输入的条件下,才能得到更好的体现。

表5 不同注意力方法对比

最后,本文对LongShortNet的效率进行了分析,如下表所示,LongShortNet相比StreamYOLO,增加的推理耗时和运算量几乎可以忽略。

表6 效率分析

模型传送门

流感知模型:

检测相关模型:

关键点相关模型:

智能通行模型:

更多模型详见 ModelScope 主页。

检测套件开发工具

ModelScope社区视觉检测开发套件AdaDet。

参考文献

  • [1] M. Li and D. Ramanan, “Towards streaming perception,” in ECCV, 2020, vol. 12347, pp. 473–488.

  • [2] A. Ghosh, A. Nambi, A. Singh, and et al., “Adaptive streaming perception using deep reinforcement learning,” CoRR, vol. abs/2106.05665, 2021.

  • [3] J. Yang, S. Liu, Z. Li, and et al., “Real-time object detection for streaming perception,” in CVPR, 2022, pp. 5385–5395.

  • [4] Z. Ge, S. Liu, F. Wang, and et al., “YOLOX: exceeding YOLO series in 2021,” CoRR, vol. abs/2107.08430, 2021.


本文转载自: https://blog.csdn.net/sunbaigui/article/details/130247377
版权归原作者 AI记忆 所有, 如有侵权,请联系我们删除。

“【达摩院OpenVI】基于流感知的视频目标检测网络LongShortNet”的评论:

还没有评论