0


AI视频监控平台教你如何行人追踪+人流量统计

行人追踪与人流量检测技术文档

1. 概述

本项目旨在通过使用ONNX和BYTETracker实现对视频中的行人进行实时追踪,并统计人流量变化。主要功能包括检测视频中的行人、追踪其位置变化、识别人流进出区域、并进行人流量的实时统计。本项目可以用于安全监控、人员流动分析等场景。

2. 技术背景

行人追踪是一项计算机视觉任务,旨在检测并持续追踪视频流中出现的目标对象。人流量检测则是基于行人追踪结果,统计特定区域内目标对象的进出情况。本项目采用了以下技术与框架:

  • YOLOX:用于行人检测的神经网络模型。
  • ONNX:模型格式,通过ONNX Runtime进行加速推理。
  • BYTETracker: - BYTETracker是一种基于SORT(Simple Online and Realtime Tracking)的改进算法,专为多目标追踪设计。与传统的追踪算法不同,BYTETracker在每一帧检测后通过匈牙利算法进行目标关联,并且引入了以下技术以提高追踪的稳定性: - 卡尔曼滤波:用于目标的状态预测,减轻因短暂遮挡或目标运动引起的抖动。- 匈牙利算法:一种基于成本矩阵的优化算法,用于解决目标检测结果与历史追踪目标的关联问题。- 多目标关联:通过IoU(Intersection over Union)和外观特征结合,实现多目标的精确关联和追踪。
  • OpenCV:用于图像处理和视频流操作。

3. 系统架构

系统整体分为以下几个模块:

  1. 视频预处理模块:读取视频流,并对帧进行预处理(如尺寸调整)。
  2. 行人检测模块:使用YOLOX模型对每一帧图像中的行人进行检测。
  3. 行人追踪模块:使用BYTETracker对检测到的行人进行追踪。
  4. 人流量统计模块:统计特定区域内的行人进出情况。

下图展示了系统的整体工作流程:

视频输入 → 预处理 → 行人检测 → 行人追踪 → 人流量统计 → 结果输出

4. 主要功能实现

4.1 视频预处理

视频预处理的目的是为了将原始视频帧调整到适合模型输入的格式,包括图像尺寸调整、归一化等操作。使用了OpenCV库对图像进行读取和处理。主要步骤包括:

  1. 尺寸调整:根据YOLOX模型的输入要求,将输入图像调整为固定尺寸(如640x640),保持原始图像的长宽比,填充背景色。
  2. 归一化:将图像像素值归一化到[0, 1]区间,有助于提高模型的检测性能。
  3. 颜色转换:如果模型输入需要特定的色彩空间(如RGB),则进行颜色空间转换。
def_pre_process(self, image):
    preprocessed_image, ratio = pre_process(
        image,
        self.input_shape,
        self.rgb_means,
        self.std,)
    image_info['ratio']= ratio
    return preprocessed_image, image_info

4.2 行人检测

行人检测是通过YOLOX模型进行的。YOLOX是一种单阶段目标检测器,直接预测边界框及其对应的类别概率。检测过程包括:

  1. 前向推理:使用ONNX Runtime对模型进行前向推理,得到预测结果。预测结果包括每个检测目标的边界框坐标、置信度以及类别标签。
  2. 后处理:对模型输出进行后处理,包括边界框格式的转换、阈值过滤和非极大值抑制(NMS)。NMS用于去除重叠的边界框,保留最优的检测结果。
definference(self, image):
    input_name = self.session.get_inputs()[0].name
    result = self.session.run(None,{input_name: image[None,:,:,:]})
    dets = self._post_process(result, image_info)...return image_info, bboxes, ids, scores

4.3 行人追踪

行人追踪的主要目标:在连续的多帧视频中保持对同一行人的唯一身份标识(ID),从而形成行人的轨迹。这需要解决目标的检测、匹配和轨迹更新等问题。

1. 检测与关联

行人追踪的核心是检测和关联过程。在每一帧图像中,首先通过YOLOX模型进行行人检测,得到多个检测框及其置信度。然后,根据这些检测结果进行目标关联,确定当前检测框属于哪个已经存在的轨迹。

检测过程

  • YOLOX是一个单阶段目标检测器。它从输入图像直接预测边界框和类别概率。YOLOX使用卷积神经网络(CNN)来提取图像特征,然后在特征图上进行目标的定位和分类。
  • 检测结果包括每个目标的边界框位置(四个坐标值)、置信度(目标是行人的概率)和类别标签(在本项目中专注于行人检测)。

关联过程

  • 关联是指将当前帧中的检测结果与上一帧中的轨迹进行匹配。BYTETracker采用匈牙利算法来解决这一问题。匈牙利算法是一种优化的匹配算法,它通过计算每个检测框与每个轨迹之间的代价矩阵(通常是基于IoU和外观特征),找到最佳的匹配方案。
  • IoU(Intersection over Union):是两个边界框重叠部分与其并集部分的比值,用于衡量检测框和预测框之间的相似度。
  • 卡尔曼滤波:BYTETracker使用卡尔曼滤波器对每个轨迹进行预测,估计下一帧中目标的可能位置,从而提高匹配的准确性。
2. 轨迹更新

每次检测和关联后,需要更新现有轨迹或者创建新的轨迹:

  • 更新现有轨迹:如果检测框与现有轨迹匹配,则更新轨迹的信息,包括位置、速度、外观特征等。
  • 创建新轨迹:如果检测框没有匹配到现有轨迹,则认为是一个新目标,创建新的轨迹。
  • 丢失轨迹的处理:当目标在某几帧中没有检测到时,会进入"丢失"状态。在一定时间内,如果没有重新检测到目标,则将轨迹标记为终止,认为目标已经离开场景。
3. BYTETracker改进

BYTETracker对传统的多目标追踪算法进行了改进,尤其是在关联和轨迹管理方面。具体改进包括:

  • 高效关联策略:BYTETracker优先匹配高置信度的检测结果,并在关联后再处理低置信度的检测框,确保追踪的鲁棒性。
  • 轨迹生命周期管理:BYTETracker根据检测结果对轨迹进行不同的状态管理,如活跃、丢失和终止状态,这样可以更好地处理目标消失和重新出现的情况。
def_tracker_update(self, dets, image_info):# dets: 当前帧的检测结果# image_info: 图像的相关信息(尺寸等)# 更新现有轨迹
    online_targets = self.tracker.update(
        dets[:,:-1],# 目标的边界框[image_info['height'], image_info['width']],# 图像尺寸[image_info['height'], image_info['width']])# 遍历在线的目标,记录ID和边界框
    online_tlwhs =[]
    online_ids =[]
    online_scores =[]for online_target in online_targets:
        tlwh = online_target.tlwh  # 目标的边界框
        track_id = online_target.track_id  # 目标的唯一ID
        online_tlwhs.append(tlwh)
        online_ids.append(track_id)
        online_scores.append(online_target.score)return online_tlwhs, online_ids, online_scores

4.4 人流量统计

人流量统计的主要目标:统计特定区域内行人的进出情况。这可以通过设置统计线或区域来实现。当行人跨过统计线或进出特定区域时,进行计数操作。

1. 统计区域与统计线

为了进行人流量统计,通常会定义一个或多个统计区域(polygon)或统计线(line)。这在项目中通过以下方式实现:

  • 统计区域:一个多边形区域,用于检测行人是否进入或离开。例如,一个矩形区域可以用来检测是否有行人进入某个特定的监控区域。
  • 统计线:一条线段,用于检测行人是否跨越该线。例如,可以设置一条横跨入口的线段,当行人通过时可以确定其进出方向。
2. 区域统计原理

区域统计是指判断行人的位置是否位于指定的区域内,通过几何计算进行判断:

  • Shapely库:在项目中,使用Shapely库来定义多边形区域,并检测行人中心点(通常是边界框的中心)是否在多边形区域内部。Shapely可以处理复杂的几何计算,如点在多边形内、边界交叉等。
  • 每次检测后,判断每个行人的中心点是否位于指定区域内,如果在内则视为“进入”,否则为“离开”。
from shapely.geometry import Polygon, Point

# 定义统计区域
self.count_regions.append(Polygon(region))# 判断目标是否在区域内defis_in_region(self, x, y):
    point = Point(x, y)for region in self.count_regions:if region.contains(point):returnTruereturnFalse
3. 线统计原理

线统计是通过定义一条或多条统计线来判断行人是否越过统计线,同时确定行人的运动方向(进还是出)。主要步骤包括:

  1. 线段交叉判断:判断行人的运动轨迹是否与统计线相交,这可以通过几何学中的线段相交算法来实现。is_intersect函数用于判断两条线段是否相交。
  2. 运动方向判断:通过计算行人的运动方向来确定其是“进入”还是“离开”区域。这里使用向量的叉积来确定方向。

向量叉积:叉积的符号可以用来判断向量的相对方向。假设有两个向量A和B:

  • 若A和B的叉积为正,则A在B的逆时针方向。
  • 若为负,则在顺时针方向。
  1. 计数逻辑:当行人的轨迹与统计线相交时,通过判断其方向来确定进出数量。
defline_track(self, first_pos, last_pos):# first_pos和last_pos分别是行人的初始位置和当前位置
    line1 =[first_pos, last_pos]
    line2 = self.special_line

    # 判断轨迹是否与统计线相交
    is_inter = is_intersect(line1, line2)ifnot is_inter:returnNone# 计算轨迹方向
    line1_dir =(line1[1][0]- line1[0][0], line1[1][1]- line1[0][1])
    line2_dir =(line2[1][0]- line2[0][0], line2[1][1]- line2[0][1])
    direction = is_positive_direction(line1_dir, line2_dir)return direction
4. 计数器的更新

根据上述逻辑判断行人的进出方向,从而更新统计计数器:

  • 进入计数器:记录进入特定区域或跨越统计线的行人数量。
  • 离开计数器:记录离开特定区域或跨越统计线的行人数量。

5. 使用说明

5.1 环境准备

  • 依赖库:安装Python环境以及所需依赖包,建议使用requirements.txt文件进行安装。
  • 模型文件:确保YOLOX模型已转换为ONNX格式,并配置到合适的路径。

5.2 运行代码

使用如下命令运行主程序

main.py

,传入相应参数进行视频分析:

python main.py --model human_detect_0803.onnx --video person.mp4 --output_dir output --score_th 0.3 --nms_th 0.4

5.3 参数说明

  • --model:ONNX模型文件路径。
  • --video:输入视频文件路径。
  • --output_dir:输出视频文件存放目录。
  • --score_th:检测置信度阈值。
  • --nms_th:非极大值抑制阈值。

本文转载自: https://blog.csdn.net/tt120326/article/details/143308862
版权归原作者 ai产品老杨 所有, 如有侵权,请联系我们删除。

“AI视频监控平台教你如何行人追踪+人流量统计”的评论:

还没有评论