Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

雷达与视觉传感器融合的高速公路全域车辆轨迹与交通参数检测方法

戴喆 吴宇轩 董是 王建伟 袁长伟 左琛

戴喆, 吴宇轩, 董是, 王建伟, 袁长伟, 左琛. 雷达与视觉传感器融合的高速公路全域车辆轨迹与交通参数检测方法[J]. 交通运输工程学报, 2025, 25(1): 197-210. doi: 10.19818/j.cnki.1671-1637.2025.01.014
引用本文: 戴喆, 吴宇轩, 董是, 王建伟, 袁长伟, 左琛. 雷达与视觉传感器融合的高速公路全域车辆轨迹与交通参数检测方法[J]. 交通运输工程学报, 2025, 25(1): 197-210. doi: 10.19818/j.cnki.1671-1637.2025.01.014
DAI Zhe, WU Yu-xuan, DONG Shi, WANG Jian-wei, YUAN Chang-wei, ZUO Chen. Global vehicle trajectories and traffic parameters detecting method in expressway based on radar and vision sensor fusion[J]. Journal of Traffic and Transportation Engineering, 2025, 25(1): 197-210. doi: 10.19818/j.cnki.1671-1637.2025.01.014
Citation: DAI Zhe, WU Yu-xuan, DONG Shi, WANG Jian-wei, YUAN Chang-wei, ZUO Chen. Global vehicle trajectories and traffic parameters detecting method in expressway based on radar and vision sensor fusion[J]. Journal of Traffic and Transportation Engineering, 2025, 25(1): 197-210. doi: 10.19818/j.cnki.1671-1637.2025.01.014

雷达与视觉传感器融合的高速公路全域车辆轨迹与交通参数检测方法

doi: 10.19818/j.cnki.1671-1637.2025.01.014
基金项目: 

国家自然科学基金项目 52402399

陕西省自然科学基础研究计划项目 2024JC-YBQN-0369

中国博士后科学基金项目 2022M710482

浙江省交通运输厅科技计划项目 2023016

详细信息
    作者简介:

    戴喆(1993-), 男, 陕西西安人, 长安大学讲师, 工学博士, 从事智能交通系统研究

    通讯作者:

    董是(1989-), 男, 辽宁辽阳人, 长安大学副教授, 工学博士

  • 中图分类号: U491.1

Global vehicle trajectories and traffic parameters detecting method in expressway based on radar and vision sensor fusion

Funds: 

National Natural Science Foundation of China 52402399

Natural Science Basic Research Project of Shaanxi Province 2024JC-YBQN-0369

China Postdoctoral Science Foundation 2022M710482

Science and Technology Project of Department of Transportation of Zhejiang Province 2023016

More Information
    Corresponding author: DONG Shi(1989-), male, associate professor, PhD, dongshi@chd.edu.cn
Article Text (Baidu Translation)
  • 摘要: 为满足智慧高速公路在复杂交通环境下对交通参数的大范围检测需求,提出了一种毫米波雷达与视觉传感器数据融合的全域车辆轨迹与交通参数检测方法;利用部署于不同路侧立杆的毫米波雷达与视觉传感器采集原始数据,通过对多源检测目标数据进行时空同步、关联、融合及多目标追踪,设计了局部场景车辆轨迹融合检测算法;通过重构车辆运动时空信息,对多个连续不同场景的车辆轨迹进行合并,设计了连续多场景联动的全域车辆轨迹检测算法;根据全域车辆轨迹中提取的位置、速度等微观运动信息,设计了基于全域车辆轨迹的交通参数检测方法;在智慧高速公路试点建设路段进行试验数据采集与人工标注,对所提出方法进行验证。研究结果表明:在目标检测任务与轨迹追踪任务中,各局部场景与连续多场景的目标检测精度整体大于90%,追踪轨迹位置与车辆实际位置的偏差均值不超过0.2 m;在交通参数检测任务中,车辆在观测区域内检测速度与实际速度的平均绝对误差加权均值为3.41 km·h-1,平均绝对百分比误差加权均值为5.00%;区间平均速度、交通流量及交通密度等交通参数的检测精度可达车道级,检测结果与高速公路出口匝道及分流区的真实交通现象相一致。

     

  • 建设高效、安全的智慧高速公路,对中国交通系统发展具有重要意义。准确检测车辆的位置、速度等运动信息,进而实现车辆的快速识别、定位及交通状态的实时监测,是智慧高速公路精细化管理的基础。车辆轨迹可用于提取多种微观交通参数,为高速公路中车辆行为的判别、解释及交通态势的深度推演与实时评估提供数据基础[1-4]。特别是车辆在连续经过多个场景所形成的全域轨迹,具有丰富的时空信息,可用于大空间尺度下交通拥堵及交通事故形成过程的机理研究[5]。近年来,在交通强国、数字中国战略背景下,全国各地先后开展了智慧高速公路试点建设。一批新型传感器,如视觉传感器[6]、激光雷达[7]、毫米波雷达[8]被应用于高速公路,开展路侧交通感知工作,借助各类路侧传感器检测车辆轨迹成为可能。

    受复杂交通环境、恶劣天气等不利因素影响,单源传感器检测数据易存在漏检、误检现象。此外,单源传感器提供的数据种类存在差异。对多种不同传感器回传数据进行融合,可有效提高检测数据精度,丰富检测数据维度,实现不同传感器检测数据的优势互补[9]。此类方法较早应用于智能汽车感知领域,以增强智能汽车在复杂交通场景下对前方车辆多目标检测与追踪的可靠性及鲁棒性[10-12]。但智能汽车感知领域与路侧感知领域存在诸多差异。相较于智能汽车感知,路侧感知更加关注检测范围内道路的总体交通态势,其所需的检测距离更远,检测车辆的数量也更多。此外,路侧部署的各类传感器常受大风、雨雪、重载车辆经过时产生的颠簸等不利因素影响,容易发生工作位姿的改变。这对多源数据融合检测在路侧感知领域的应用提出了更高要求。

    随着传感器技术的发展,各类传感器的检测距离与精度显著提升,为多源数据融合检测在路侧感知领域的应用提供了基础。武一民等[13]采用基于量测噪声的自适应扩展Kalman滤波器,在路侧部署包括视觉传感器、毫米波雷达等在内的多种传感器,进行多源数据融合检测,并通过装有差分高精度定位系统的车辆进行验证结果表明,该方法在车辆横、纵向位置和速度等参数的估计精度均显著优于单源感知方法,但该方法未在高密度的交通场景进行验证,其在此类场景下的可靠性与鲁棒性仍有待检验。Wang等[14]将路侧视觉传感器与激光雷达采集的轨迹数据进行融合,并根据激光雷达的点云数量与传感器之间的距离确定自适应融合系数,以获取车辆的精准轨迹,并在不同城市道路场景对该方法进行验证,结果表明,该方法可有效提升路侧感知方法的多目标追踪性能,但缺少高速公路场景的验证环节,其处理高速运动车辆时的性能尚不明确。

    由于不同交通场景的交通流及周边环境存在差异,现有基于路侧设备的车辆轨迹检测研究较多关注局部场景下的车辆轨迹检测方法[15],而连续多场景下的全域车辆轨迹检测方法研究较少。王俊骅等[8]提出了一种基于连续多场景毫米波雷达检测数据的全域车辆轨迹检测方法,结果表明,该方法获取的单目标与多目标全域轨迹精度良好,但用于试验的车辆轨迹数据量偏少;刘超等[16]在连续多场景的路侧较高位置布设视觉传感器并进行数据采集,通过目标关联与轨迹拼接方法构建车辆的全域轨迹,并在城市快速路场景完成验证。但高速公路常见的路侧立杆与龙门架存在高度限制,该方法在高速公路场景可实施性较差。此外,部分研究采用卫星导航系统[17-19]、激光雷达[20-22]、无线通信[23]等方式进行车辆位置信息物理定位,进而获取车辆的全域轨迹,但卫星定位设备及激光雷达部署成本较高,绝大部分车辆未安装此类设备,而无线通信数据涉及隐私问题,获取难度较大。作为智慧高速公路的主流检测方式,路侧感知所需的各类传感器布设方便、成本相对较低、数据易于获取,已在多个智慧高速公路试点路段进行部署,其应用较为广泛。

    本文读取连续部署于多个场景的高速公路路侧毫米波雷达与视觉传感器检测数据,经过时空同步,目标关联,数据融合等步骤,实现车辆在局部场景下的融合检测,并利用深度简单在线实时追踪(Deep Simple Online and Real-time Tracking, Deep-SORT)算法进行多目标追踪,生成车辆在局部场景的融合追踪轨迹;对车辆在局部场景的融合追踪轨迹进行车辆运动信息时空重构,通过连续多场景联动的车辆重识别与轨迹合并以获取全域车辆轨迹,并基于全域车辆轨迹获取相关交通参数。方法流程图如图 1所示。研究成果实现了高速公路车辆连续运动状态与全域交通参数的精准检测,可满足车辆的快速识别、定位与交通运行状态实时监测需求,有效弥补了现有方法在获取高速公路全域车辆轨迹及交通参数存在的不足,为智慧高速公路全域精准检测需求提供了一种可靠的方案。

    图  1  雷达和视觉传感器融合的高速公路全域车辆轨迹与交通参数检测方法流程
    Figure  1.  Process of global vehicle trajectories and traffic parameters detecting method in expressway based on radar and vision sensor fusion

    在局部场景车辆轨迹融合检测算法中,将毫米波雷达与视觉传感器检测目标进行空间坐标转换与时间配准,实现多源检测目标的时空同步;计算同一帧中多源检测目标的相似度并求解目标关联关系,实现多源检测目标数据的关联;以关联结果作为输入,使用机器学习算法实现多源目标数据融合,获取融合后的车辆位置信息;以车辆位置信息作为输入,采用Deep-SORT算法实现局部区域车辆多目标追踪,生成局部场景车辆轨迹。

    1.1.1   多源检测车辆目标时空同步方法

    实现多源异构传感器检测的车辆目标在时间、空间上的精准同步,是进行数据融合的先决条件之一。时空同步方法按先后顺序可分为空间同步方法与时间同步方法。

    在高速公路场景中,毫米波雷达与视觉传感器分别布设于同一路侧立杆上的不同位置,对道路上的车辆进行检测,其工作姿态如图 2所示,图中:考虑路侧立杆的道路空间坐标为已知信息,以路侧立杆位置为基准,建立道路空间坐标系OR,并基于该坐标系进行视觉传感器坐标系OV、毫米波雷达相对坐标系Or和图像坐标系Oi的空间同步,x轴方向为道路空间平面的纵向;y轴方向为道路空间平面的横向;z轴方向垂直道路空间平面;xryr分别为毫米波雷达检测车辆在相对坐标系上水平和垂直方向的坐标;θφfH分别为简化为针孔模型的视觉传感器的偏转角、俯仰角、焦距以及部署高度;β为毫米波雷达的测角;P为道路空间中的一点;pP在图像坐标系中对应的一点。假设P的齐次表示方式为P=(x, y, z, 1)T,而该点在图像坐标系中对应点p的齐次表示方式为p=(αu, αv, α)T,其中α为比例因子且α≠0,uv分别为该点在图像坐标系中的水平方向坐标和垂直方向坐标。则图像坐标向道路空间坐标的投影方程为

    p=[fcos(θ)fsin(θ)00fsin(φ)sin(θ)fsin(φ)cos(θ)fcos(φ)fHcos(φ)cos(φ)sin(θ)cos(φ)cos(θ)sin(φ)Hsin(φ)]P (1)
    图  2  毫米波雷达与视觉传感器工作姿态
    Figure  2.  Working posture of millimeter-wave radar and vision sensor

    忽视道路空间平面中行驶车辆的高度,即认为道路空间平面上点P高度z=0,可将图像坐标与道路空间平面坐标之间的映射关系简化为

    u=αuα=xfcos(θ)yfsin(θ)xcos(φ)sin(θ)+ycos(φ)cos(θ)+Hsin(φ) (2)
    v=αvα=xfsin(φ)sin(θ)yfsin(φ)cos(θ)+Hfcos(φ)xcos(φ)sin(θ)+ycos(φ)cos(θ)+Hsin(φ) (3)

    为建立道路空间坐标与图像坐标的投影与逆投影关系,需获取θ、φ、f、H等4个参数。由于试验场景为高速公路,其交通密度大且车辆行驶速度快,不便放置传统标定方法所需的标定物,且本次研究只需获取车辆在道路空间平面中的运动信息。为此,采用基于车辆模型的自动标定方法[24]进行标定,获取相应参数,标定参数结果如表 1所示。

    表  1  各观测点视觉传感器参数标定结果
    Table  1.  Calibration results of vision sensor parameters at each observation site
    观测点 1 2 3 4
    θ/rad -0.140 23 -0.115 54 -0.129 50 -0.125 06
    φ/rad 0.101 05 0.066 32 0.070 69 0.085 63
    f/mm 6 500.05 8 500.00 6 455.00 6 756.62
    H/mm 10 709.45 6 000.00 7 000.00 7 000.00
    下载: 导出CSV 
    | 显示表格

    为兼顾视觉检测算法的高效性与准确性,参考同类研究[16],针对视觉传感器回传图像,采用目标检测算法YOLOv5进行车辆检测。同时,由于上述关系不考虑车辆的高度,使用车辆目标检测包络框底边中点的像素坐标,以消除车辆因高度带来的位置误差,并根据式(2)、(3)的关系,将像素坐标解算为道路空间坐标。

    由于毫米波雷达回传数据的坐标形式为相对于观测位置的坐标。需要经过旋转、平移等过程,将相对坐标转换为道路空间坐标。从而建立起视觉传感器与毫米波雷达数据的统一空间关系,完成道路空间坐标同步。这一过程的关系式为

    [xRyR]=[cos(β)sin(β)sin(β)cos(β)][xryr]+[ΔxRΔyR] (4)

    式中:xRyR分别为毫米波雷达检测车辆在道路空间坐标系上水平和垂直方向的坐标;ΔxR、ΔyR分别为毫米波雷达检测车辆在道路空间坐标系中水平和垂直方向的平移坐标。

    时间同步的目的是将各传感器采集数据的时间点进行同步,以实现不同传感器反馈数据在同一帧上的对应,这一过程分为传感器之间的时间硬同步与传感器采集数据之间的时间软同步。采用基于全球定位系统的时钟源,为各传感器提供标准时间,以实现各传感器采集时间节点的硬同步。考虑到试验所选用的毫米波雷达采集频率fR为每秒12帧,视觉传感器的采集频率fV为每秒25帧。为此,以频率较低的毫米波雷达数据为主序列,在统一2组数据序列的时间起点后,将视觉传感器数据与其进行关联,进而实现多传感器采集数据的时间软同步,这一过程如图 3所示。

    图  3  毫米波雷达与视觉传感器数据时间同步流程
    Figure  3.  Time synchronization process of data from millimeter-wave radar and vision sensor
    1.1.2   多源检测车辆目标关联与数据融合方法

    在完成多源检测车辆目标时空同步后,毫米波雷达与视觉传感器检测车辆在同一帧中的时空描述得到统一。但不同传感器检测车辆之间的关系仍需确定。为此,需要对两传感器在同一帧中检测车辆目标的关系进行判别,以实现多源检测车辆目标之间的关联,并对关联后车辆目标数据进行融合,提高检测可靠性。

    根据相关研究[25],考虑到传感器检测车辆的位置信息较为可靠,通过计算不同车辆目标之间的欧式距离,根据距离的大小确定其相似度,进而实现目标关联。具体步骤为:首先,获取毫米波雷达R与视觉传感器V在第k帧的检测车辆目标信息,分别记其数量为RkVk,记毫米波雷达检测的某车辆目标a(aRk),位置为(xa, ya),视觉传感器检测的某车辆目标b(bVk),位置为(xb, yb);然后,分别计算车辆目标ab之间的欧式距离Dab,定义一合理值为门限值M,如DabM,则在关联矩阵的对应值将被赋为罚数;最后,根据计算所得相似度,求解关联矩阵,实现多源异构传感器检测车辆在同一帧中的关联。

    经过上述流程后。对于同一帧的车辆而言,不同传感器检测该车辆目标后的关联状态可划分为:(1)视觉传感器与毫米波雷达同时检测到该车辆目标;(2)仅视觉传感器检测到该车辆目标;(3)仅毫米波雷达检测到该车辆目标,如图 4所示。

    图  4  多源检测车辆目标关联状态
    Figure  4.  Association status of multi-source detection of vehicle targets

    由于高速公路上车辆的运行状态受到交通流参数、突发事件等复杂因素影响。单源传感器检测数据易存在量测误差,或因漏检、误检致使目标丢失,无法满足车辆位置精准检测需要。需要对关联后的多源检测数据进行融合处理,以提高数据精度。决策级融合方法具备实时性强、容错能力强、受传感器配准误差影响小等优点,符合研究需要。为此,采用决策级融合方法,对关联后的多源检测数据进行融合处理。

    集成学习算法通过将多个学习器进行结合,可获得较单一学习器优越的泛化性能。轻量级梯度提升机(Light Gradient Boosting Machine, LightGBM)算法[26]是梯度提升算法中的一种变种算法,通过对多个弱学习器的结果进行加权、求和,得到强学习器。相较于其他集成学习算法,该算法能够快速、高效地处理大规模数据,且鲁棒性强。为此,基于LightGBM回归算法,构建多源数据决策级融合算法,具体步骤如下。

    步骤1:借助前期采集的传感器数据,进行人工标注,构建车辆轨迹数据集,将轨迹数据集按8∶1∶1的比例划分为训练集、测试集与验证集。

    步骤2:选取毫米波雷达检测的车辆位置信息、视觉传感器检测的车辆位置信息,不同传感器检测位置信息关联状态作为输入特征,以人工标注的车辆位置作为真值。

    步骤3:构建LightGBM回归模型。使用训练集数据,对模型进行训练。并通过验证集数据,进行参数调优与最优模型选择。利用测试集数据,对最优模型输出车辆位置预测信息的能力进行评估。

    步骤4:利用参数优化后的最优LightGBM模型,进行多源数据决策级融合,实现车辆位置的融合检测。

    1.1.3   局部场景车辆多目标追踪方法

    在实现多源异构传感器检测目标关联与数据融合后,车辆在道路局部场景中的位置能够被实时获取。为实现车辆在后续帧的连续定位,获取不同车辆在局部场景下的连续运动轨迹,需要进行车辆在局部场景的多目标追踪。为兼顾多目标追踪算法的实时性与准确性,本研究采用Deep-SORT算法[27]实现这一需求。

    多目标追踪算法中的2个重要模块分别为目标追踪算法与目标匹配算法。在目标追踪过程中,由于相邻2次采集数据的时间间隔很短,可认为车辆在这段时间内近似匀速直线运动,为此,Deep-SORT算法采用Kalman滤波方法,给出不同车辆在下一次采集数据时其运动状态的预测值;在目标匹配过程中,计算不同车辆在下一帧运动状态的预测值与测量值之间的相似度,采用匈牙利算法[28],在短时间内实现相似度最大值之间的匹配,进而实现多目标追踪。算法具体步骤如下,生成的各场景车辆时空轨迹如图 5所示。

    图  5  局部场景车辆轨迹时空分布
    Figure  5.  Spatio-temporal distributions of vehicle trajectories in each local scene

    步骤1:在当前帧k进行一次目标检测、数据关联与融合,设经过s帧后,检测得到的车辆总数为nkTk, i为第k帧时车辆i(ink)的轨迹节点,将融合数据作为算法的原始输入,实现轨迹节点集合TA={Ts, i|s=1, 2, …, k; i=1, 2, …, nk}的初始化。

    步骤2:在第k+1帧,使用Kalman滤波追踪器,对轨迹节点集合TA进行一次位置预测,得到预测轨迹位置节点集合TP={Tk+1, i|i=1, 2, …, nk}。

    步骤3:在第k+1帧,进行一次目标检测、数据关联与融合,设经检测得到的车辆总数为nk+1Tk+1, j为在第k+1帧时车辆j(jnk+1)的轨迹节点,得到目标检测位置节点集合TD={Tk+1, j|j=1, 2, …, nk+1}。

    步骤4:计算第k+1帧预测轨迹位置节点集合TP与目标检测位置节点集合TD内各节点的相似度,建立相似度评价矩阵。

    步骤5:运用匈牙利算法,求解相似度评价矩阵,进行数据关联,实现预测轨迹集与检测节点集的匹配。

    步骤6:将匹配的目标检测位置节点集合TD中的元素加入轨迹位置节点集合TA,记录一次匹配时间。

    步骤7:对步骤6目标检测位置节点集合TD中未匹配的元素赋予新编号,完成轨迹初始化,加入TA,回到步骤2。

    步骤8:设最大匹配时间为tmax,对接下来的所有帧重复步骤2~6,直至超过tmax仍无法实现TPTD中某元素的匹配,则认为车辆离开检测区域,终止该轨迹的生成,完成该车辆在局部场景下的目标追踪过程。

    本研究提出一种基于时空信息,应用于连续多个交通场景的大范围车辆轨迹检测算法。基于1.1节中获取的局部场景车辆多目标追踪轨迹,提取车辆在各场景运动的时空信息,将车辆的道路空间坐标信息转换为通用横轴墨卡托(Universal Transverse Mercator, UTM)坐标,时间信息转换为Unix时间戳,进行时空重构。根据同一车辆在相邻两观测点重叠内的时空信息进行重识别,从而实现车辆运动轨迹的跨区域重构与合并,达到连续多场景联动检测全域车辆轨迹的目的。其流程如图 6所示。

    图  6  连续多场景联动的全域车辆轨迹检测算法流程
    Figure  6.  Process of global vehicle trajectories detection algorithm in continuous traffic scenes
    1.2.1   车辆局部场景运动信息时空重构方法

    在1.1节中,车辆在局部场景下的融合位置信息已经获取。为实现连续多场景联动的车辆轨迹检测,需要对车辆在不同局部场景的运动信息进行时空重构,以统一不同场景下车辆的时间、空间信息格式。首先,将车辆的道路空间坐标信息转换为UTM坐标,同时,需要将各检测设备时间转换为Unix时间戳,统一各检测设备采集数据的时间格式,从而实现车辆运动信息的跨区域时空重构。

    经过上述转换,得到车辆在连续多场景下的运动时空重构信息。设第k帧时,车辆i在观测点G处经多传感器融合检测形成的车辆轨迹节点Tk, iG=(xU, yU, vx, U, vy, U, γU, C),其中:xUyU分别为车辆在UTM坐标系下东向和北向的位置坐标;vx, Uvy, U分别为车辆在UTM坐标系下东向和北向的速度;γU为车辆在UTM坐标系下的行驶方向角;C为目标检测算法识别得到的车辆类别。可通过计算不同车辆运动时空重构信息的余弦相似度Ecos-sim,进行相邻观测点同一车辆轨迹的合并。余弦相似度的计算方法为

    Ecossim=AB (5)

    式中:AB分别为两不同车辆运动时空重构信息的特征向量。

    1.2.2   连续多场景的车辆重识别与轨迹合并方法

    实现不同检测区域之间同一运动车辆的重识别与轨迹合并,是精准检测车辆全域轨迹的前提。为保证不同检测区域间车辆轨迹合并的准确性,各观测点传感器的检测范围应存在一定的重叠。通过对两观测点传感器在重叠检测区域内所检测到的目标进行关联,实现同一车辆在连续多场景下的重识别与轨迹合并,生成的全域车辆轨迹时空分布如图 7所示。

    图  7  连续多场景联动的全域车辆轨迹时空分布
    Figure  7.  Spatio-temporal distribution of global vehicle trajectories in continuous traffic scenes

    记第k帧时,当前观测点G在观测点重叠范围内测得车辆i的轨迹节点为Tk, iG,后一观测点G+1测得车辆i的轨迹节点为Tk, iG+1。分别选取两轨迹节点中的运动时空重构信息作为观测点获取的车辆特征数据,则车辆重识别与轨迹合并方法的步骤如下。

    步骤1:选取道路宽度区间为0~18.75 m,行驶速度区间为60~100 km·h-1,行驶方向角区间为±8°,车辆类别中的小汽车、货车、客车分别为值1~3,对特征数据进行归一化处理。

    步骤2:根据当前观测点G与后一观测点G+1经归一化后的特征数据,建立相应特征向量,记观测点G检测到某一车辆的特征数据所建立的特征向量为$ \hat{\boldsymbol{T}}_{i_G}$,观测点G+1检测相同车辆的特征向量为$ \hat{\boldsymbol{T}}_{i_{G+1}}$。

    步骤3:针对在第k帧时,当前观测点G与后一观测点G+1检测的所有车辆,使用式(5)计算各特征向量之间的余弦相似度Ecos-sim

    步骤4:根据步骤3计算结果,建立相邻观测点传感器检测的所有车辆的相似度矩阵并求解,实现重叠区域内不同观测点检测的同一车辆的关联。

    步骤5:根据步骤4中的关联结果,将观测点G+1检测到的车辆i的轨迹节点Tk, iG+1,加入到此前检测的车辆轨迹集合TA, i中,形成车辆i在多场景下的连续车辆轨迹,完成多场景的车辆重识别与合并。

    2基于全域车辆轨迹的交通参数检测方法

    基于第1节中获取的车辆在连续多场景下的全域运动轨迹,可以提取车辆在这一过程中的微观运动信息,如表 2所示。基于车辆在连续多场景下的全域运动轨迹中提取车辆的微观运动信息,可实现车道级交通参数检测。

    表  2  基于全域车辆轨迹提取的微观车辆运动参数
    Table  2.  Microscopic vehicle motion parameters extracted from global vehicle trajectories
    数据字段名 数据描述
    track_id 车辆编号
    class 车辆类别
    time_stamp 检测到该车辆时的Unix时间戳/ms
    xPosition 车辆在UTM坐标系下的东向位置坐标/m
    yPosition 车辆在UTM坐标系下的北向位置坐标/m
    xSpeed 车辆在UTM坐标系下的东向速度/(m·s-1)
    ySpeed 车辆在UTM坐标系下的北向速度/(m·s-1)
    driveAngle 车辆在UTM坐标系下的行驶方向角/(°)
    sub_node_id 检测到该车辆的观测点编号
    下载: 导出CSV 
    | 显示表格

    交通流量Q、区间平均速度v、交通密度K是表征道路交通流特性的3个基本交通参数。若一条道路上第l条车道的区间平均速度为vl,交通密度为Kl,则该车道上的交通流量Ql

    Q_l=\bar{v}_l K_l (6)

    考虑到高速公路的行车速度较快,根据融合后数据频率,以1 s为时间间隔计算一次交通参数。根据车辆垂直于道路方向的位置及车道线位置,可以确定车辆所处的车道位置。

    对于车道区间平均速度vl和车道交通密度Kl,设检测区间内的道路总长为L,某时刻检测到的所有处于第l条车道的车辆总数为nl,其中第i辆车的行驶车速为vi,则第l条车道的区间平均速度vl和交通密度Kl

    \bar{v}_l=3.6\left(\frac{1}{n_l} \sum\limits_{i=1}^{n_l} \frac{1}{v_i}\right)^{-1} (7)
    K_t=\frac{1000 n_t}{L} (8)

    为验证算法性能,本次研究以杭州萧山机场高速公路智慧化改造项目的部分连续路段作为试验区域,开展数据协同采集、人工标注与算法验证工作。区域图像如图 8所示。该试验区域的长度为1 km,最高限速为100 km·h-1,考虑高速公路环境,将试验使用的传感器与边缘计算服务器在路侧立杆进行协同布设。不同观测点处传感器采集的原始数据将在边缘计算服务器中进行结构化处理,并通过部署于高速公路的千兆光纤网络传输至数据处理工作站中,进行进一步处理。对观测的车辆位置进行人工标注,并参考文献[29]中基于视频图像消失点、道路宽度与相机高度方法进行空间转换,得到误差小于1%的车辆在道路空间平面中位置的人工标注值。试验数据采集时间为2022年8月10日10:00~11:40,过程中共采集到2 678条全域车辆轨迹。试验验证结果及分析如下。

    图  8  数据采集区域
    Figure  8.  Data collection areas

    首先,对融合检测算法的车辆目标检测精度进行评价。将检测范围划分为近端(距观测点小于100 m)与远端(距观测点大于100 m),以分析各检测方法在不同检测距离条件的表现。以1 s为时间粒度,以检测方法准确率EAcc, m(m取1,2,3)为评价指标,分别对视觉检测方法的目标检测精度EAcc, 1、雷达检测方法的目标检测精度EAcc, 2、融合检测方法的目标检测精度EAcc, 3进行评价。EAcc, m

    E_{\mathrm{Acc}, m}=\frac{E_m}{E_{\mathrm{GT}}} (9)

    式中:EGT为人工标注的车辆轨迹点数量基准值;Em为检测方法m在试验中检测的车辆轨迹点数量。

    表 3为数据采集时间内不同检测方法的准确率试验结果,可以看出:融合检测算法在各观测点的近端及远端处的整体准确率要大于2种单源检测方法的整体准确率,表明融合检测方法能够克服单源传感器在不同检测距离上存在的缺陷,有效提高整体检测精度。

    表  3  数据采集时间内不同检测方法的准确率
    Table  3.  Accuracies for different detecting methods during data collection time %
    观测点 1 2 3 4
    近端 远端 近端 远端 近端 远端 近端 远端
    EAcc, 1 98.61 80.79 98.43 78.65 98.14 77.39 98.52 78.13
    EAcc, 2 84.26 98.74 83.31 96.92 82.46 96.55 83.99 96.61
    EAcc, 3 97.52 97.13 95.01 94.42 94.13 92.38 95.38 93.86
    下载: 导出CSV 
    | 显示表格

    其次,以车辆轨迹点的检测准确率EAcc、精确率EPre与召回率ERc作为融合检测方法精度的评价指标。EAccEPreERc可表示为

    E_{\mathrm{Acc}}=\frac{E_{\mathrm{TP}}}{E_{\mathrm{TP}}+E_{\mathrm{FN} 1}+E_{\mathrm{FP} 1}} (10)
    E_{\mathrm{Pre}}=\frac{E_{\mathrm{TP}}}{E_{\mathrm{TP}}+E_{\mathrm{FP} 1}} (11)
    E_{\mathrm{Rc}}=\frac{E_{\mathrm{TP}}}{E_{\mathrm{TP}}+E_{\mathrm{FN} 1}} (12)

    式中:ETP为融合检测方法正确检测的车辆轨迹点数量;EFP1为融合检测方法误检的车辆轨迹点数量;EFN1为融合检测方法漏检的车辆轨迹点数量。

    表 4为各观测点的融合检测方法精度试验结果,可以看出:各观测点的车辆目标融合检测效果良好;融合检测算法可满足高速公路复杂交通场景下车辆检测需求。

    表  4  各观测点车辆检测目标试验结果
    Table  4.  Experimental results of vehicle detection task at each observation site
    观测点 1 2 3 4
    EGT 7 293 5 782 10 228 5 251
    ETP 7 094 5 467 9 535 4 942
    EFP1 89 153 391 161
    EFN1 110 162 302 148
    EAcc/% 97.27 94.55 93.22 94.12
    EPre/% 98.76 97.12 96.06 96.84
    ERc/% 98.47 97.27 96.93 97.09
    下载: 导出CSV 
    | 显示表格

    在3.2节基础上,采用多目标追踪评价指标的多目标追踪准确率EMOTA与多目标追踪精确率EMOTP[30],对车辆运动轨迹追踪精度进行评价。EMOTAEMOTP

    E_{\mathrm{MOTA}}=1-\frac{E_{\mathrm{FP} 2}+E_{\mathrm{FN} 2}+E_{\mathrm{IDSW}}}{E_{\mathrm{GT}}} (13)
    E_{\mathrm{MOTP}}=\frac{\sum\limits_t \sum\limits_i D_{t, i}}{\sum\limits_t c_t} (14)

    式中:EFP2为误检的车辆轨迹点数量;EFN2为漏检的车辆轨迹点数量;EIDSW为被追踪目标跳变ID的次数;Dt, it时刻成功匹配车辆中,车辆i估计位置与实际位置之间的欧式距离;ctt时刻成功匹配的车辆总数。

    表 5为车辆运动轨迹追踪任务的试验结果,可以看出:算法在不同观测点的多目标追踪精度均大于90%;追踪轨迹位置与车辆实际位置的偏差均值不超过0.2 m;表明在复杂交通环境下,算法可实现车辆轨迹的高精度连续追踪。

    表  5  车辆运动轨迹追踪任务试验结果
    Table  5.  Experimental results of vehicle trajectories tracking task
    观测点 1 2 3 4 全域
    EGT 7 293 5 782 10 228 5 251 28 554
    ETP 7 094 5 467 9 535 4 942 27 038
    EFP2 89 153 391 161 794
    EFN2 110 162 302 148 722
    EIDSW 5 3 1 2 11
    EMOTA/% 97.20 94.50 93.21 94.08 94.65
    EMOTP/% 0.20 0.16 0.21 0.16 0.18
    下载: 导出CSV 
    | 显示表格

    为直观展示不同方法进行运动轨迹追踪的精度,选取视觉传感器检测方法、毫米波雷达检测方法与融合检测方法在不同观测点的4个不同时段的追踪轨迹,对其进行可视化展示。图 9为可视化展示效果,可以看出:视觉传感器检测方法的追踪轨迹在观测区域的近端保持完整,而在远端出现失效;毫米波雷达检测方法的追踪轨迹在近端出现失效,且在车辆较多的场景下出现了轨迹的跳变、断裂,这与毫米波雷达的横径分辨率较低有关;融合检测方法的追踪轨迹在观测区域内均保持完整, 表明了融合检测方法在车辆轨迹追踪过程中的优越性。

    图  9  不同检测方法在各观测点追踪车辆轨迹的可视化示例
    Figure  9.  Visualization examples of vehicle trajectories tracked by different detecting methods at each observation site

    为了准确、具体的评价算法获取交通参数的检测精度,选取平均绝对误差EMAE及平均绝对百分比误差EMAPE,对试验过程中检测车辆速度的精度进行评价,即

    E_{\mathrm{MAE}}=\frac{1}{N} \sum\limits_{\mu=1}^N\left|v_\mu-\widehat{v}_\mu\right| (15)
    E_{\mathrm{MAPE}}=\frac{1}{N} \sum\limits_{\mu=1}^N\left|\frac{v_\mu-\widehat{v_\mu}}{v_\mu}\right| (16)

    式中:N为检测车辆轨迹点的数量;vμ为人工测定的第μ个车辆轨迹点速度基准值;$ \widehat{v_\mu}$为算法测定的第μ个车辆轨迹点速度检测值。

    表 6为各观测点车辆速度的EMAEEMAPE图 10为试验车辆在4个场景下的检测速度与实际速度的对比结果,可以看出:算法在不同观测点检测车辆速度的平均绝对误差不超过5 km·h-1;检测精度整体大于95%;考虑到高速公路上车辆行驶速度快、交通密度大,可认为算法在车辆速度检测方面表现良好。

    表  6  各观测点车辆速度EMAEEMAPE
    Table  6.  MAE and MAPE in vehicle speed detection
    观测点 1 2 3 4 全域
    EMAE/(km·h-1) 2.72 4.31 3.04 3.73 3.41
    EMAPE/% 4.32 6.03 4.43 5.29 5.00
    下载: 导出CSV 
    | 显示表格
    图  10  检测速度与实际速度对比结果
    Figure  10.  Comparison results of detected speeds and actual speeds

    根据第2节中所提出的交通流参数计算方法,记道路右侧至左侧依次为1~4车道,货车及客车为大型车辆、小汽车为小型车辆。获取统计时间段内各车道不同类型车辆的交通流参数,结果如表 7~9所示,可以看出:本文方法测得各类交通参数与人工测得的交通参数的平均误差不超过6%;大型车辆主要分布于1、3、4车道;数据采集时间内1~4车道的区间平均速度依次递增,而交通密度依次递减;考虑到观测点4检测区域的末端为高速公路的出口匝道,可认为检测结果与高速公路出口匝道及分流区在运行过程中的交通现象相符。

    表  7  数据采集时间内各车道不同类型车辆的区间平均速度
    Table  7.  Space mean speeds for different types of vehicles in each lane during data collection time  km·h-1
    车辆类型 车道1 车道2 车道3 车道4
    本文算法 人工测得 本文算法 人工测得 本文算法 人工测得 本文算法 人工测得
    所有车辆 57.13 59.08 69.95 71.56 73.73 74.99 82.60 84.34
    大型车辆 56.94 57.92 69.55 71.15 72.75 73.84 81.28 83.14
    小型车辆 57.28 59.16 69.99 71.61 73.74 75.06 83.04 84.48
    下载: 导出CSV 
    | 显示表格
    表  8  数据采集时间内各车道不同类型车辆的交通密度
    Table  8.  Traffic densities for different types of vehicles in each lane during data collection time  veh·km-1
    车辆类型 车道1 车道2 车道3 车道4
    本文算法 人工测得 本文算法 人工测得 本文算法 人工测得 本文算法 人工测得
    所有车辆 7.08 7.20 6.74 6.83 5.87 6.23 3.37 3.56
    大型车辆 0.51 0.53 0.22 0.25 0.05 0.06 0.38 0.39
    小型车辆 6.55 6.67 6.52 6.58 5.82 6.17 2.99 3.17
    下载: 导出CSV 
    | 显示表格
    表  9  数据采集时间内各车道不同类型车辆的交通流量
    Table  9.  Traffic volumes for different types of vehicles in each lane during data collection time  veh·h-1
    车辆类型 车道1 车道2 车道3 车道4
    本文算法 人工测得 本文算法 人工测得 本文算法 人工测得 本文算法 人工测得
    所有车辆 404.5 425.3 471.5 488.8 432.8 467.2 278.4 300.3
    大型车辆 29.3 30.7 15.2 17.7 3.5 4.1 30.3 32.5
    小型车辆 375.2 394.6 456.3 471.1 429.3 463.1 248.1 267.8
    下载: 导出CSV 
    | 显示表格

    (1) 使用路侧连续布设的多个毫米波雷达与视觉传感器采集数据,提出了一种基于雷达和视觉数据融合的高速公路全域车辆轨迹与交通参数检测方法,实现了局部场景车辆目标融合检测与多场景联动的全域车辆轨迹检测,并根据全域车辆轨迹中的位置、速度等微观运动信息,以车道级精度提取表征道路交通流基本特征的区间平均速度、交通密度、交通流量等交通参数。

    (2) 利用实地采集数据,对提出方法进行验证,复杂交通场景下各观测点对车辆位置检测的误差不超过0.2 m,车辆速度检测的平均绝对误差不超过5 km·h-1,检测精度整体大于95%,提取的交通参数所反映的现象与高速公路出口匝道及分流区运行的现实情形相符,该方法具备良好的连续多场景车辆运动检测效果。

    (3) 后续工作将集中于利用获取全域车辆轨迹中的多种微观运动信息,分析连续多场景下的车辆驾驶行为与交通运行态势变化过程,进行大空间尺度下的交通事件时空演变机理研究。

    (4) 本次研究的不足包括:试验场景为机场高速公路,检测的大型车辆数量少于小型车辆;对于第3、4车道上的车辆,由于其行驶速度较快,提取的各类交通参数误差较大。算法在车辆种类分布更加多样、行驶速度更高的高速公路场景的性能仍有待进一步探索。后续研究可针对不同天气、时段、车型分布条件的场景,进一步提升算法在这些场景下的可靠性与鲁棒性。

  • 图  1  雷达和视觉传感器融合的高速公路全域车辆轨迹与交通参数检测方法流程

    Figure  1.  Process of global vehicle trajectories and traffic parameters detecting method in expressway based on radar and vision sensor fusion

    图  2  毫米波雷达与视觉传感器工作姿态

    Figure  2.  Working posture of millimeter-wave radar and vision sensor

    图  3  毫米波雷达与视觉传感器数据时间同步流程

    Figure  3.  Time synchronization process of data from millimeter-wave radar and vision sensor

    图  4  多源检测车辆目标关联状态

    Figure  4.  Association status of multi-source detection of vehicle targets

    图  5  局部场景车辆轨迹时空分布

    Figure  5.  Spatio-temporal distributions of vehicle trajectories in each local scene

    图  6  连续多场景联动的全域车辆轨迹检测算法流程

    Figure  6.  Process of global vehicle trajectories detection algorithm in continuous traffic scenes

    图  7  连续多场景联动的全域车辆轨迹时空分布

    Figure  7.  Spatio-temporal distribution of global vehicle trajectories in continuous traffic scenes

    图  8  数据采集区域

    Figure  8.  Data collection areas

    图  9  不同检测方法在各观测点追踪车辆轨迹的可视化示例

    Figure  9.  Visualization examples of vehicle trajectories tracked by different detecting methods at each observation site

    图  10  检测速度与实际速度对比结果

    Figure  10.  Comparison results of detected speeds and actual speeds

    表  1  各观测点视觉传感器参数标定结果

    Table  1.   Calibration results of vision sensor parameters at each observation site

    观测点 1 2 3 4
    θ/rad -0.140 23 -0.115 54 -0.129 50 -0.125 06
    φ/rad 0.101 05 0.066 32 0.070 69 0.085 63
    f/mm 6 500.05 8 500.00 6 455.00 6 756.62
    H/mm 10 709.45 6 000.00 7 000.00 7 000.00
    下载: 导出CSV

    表  2  基于全域车辆轨迹提取的微观车辆运动参数

    Table  2.   Microscopic vehicle motion parameters extracted from global vehicle trajectories

    数据字段名 数据描述
    track_id 车辆编号
    class 车辆类别
    time_stamp 检测到该车辆时的Unix时间戳/ms
    xPosition 车辆在UTM坐标系下的东向位置坐标/m
    yPosition 车辆在UTM坐标系下的北向位置坐标/m
    xSpeed 车辆在UTM坐标系下的东向速度/(m·s-1)
    ySpeed 车辆在UTM坐标系下的北向速度/(m·s-1)
    driveAngle 车辆在UTM坐标系下的行驶方向角/(°)
    sub_node_id 检测到该车辆的观测点编号
    下载: 导出CSV

    表  3  数据采集时间内不同检测方法的准确率

    Table  3.   Accuracies for different detecting methods during data collection time %

    观测点 1 2 3 4
    近端 远端 近端 远端 近端 远端 近端 远端
    EAcc, 1 98.61 80.79 98.43 78.65 98.14 77.39 98.52 78.13
    EAcc, 2 84.26 98.74 83.31 96.92 82.46 96.55 83.99 96.61
    EAcc, 3 97.52 97.13 95.01 94.42 94.13 92.38 95.38 93.86
    下载: 导出CSV

    表  4  各观测点车辆检测目标试验结果

    Table  4.   Experimental results of vehicle detection task at each observation site

    观测点 1 2 3 4
    EGT 7 293 5 782 10 228 5 251
    ETP 7 094 5 467 9 535 4 942
    EFP1 89 153 391 161
    EFN1 110 162 302 148
    EAcc/% 97.27 94.55 93.22 94.12
    EPre/% 98.76 97.12 96.06 96.84
    ERc/% 98.47 97.27 96.93 97.09
    下载: 导出CSV

    表  5  车辆运动轨迹追踪任务试验结果

    Table  5.   Experimental results of vehicle trajectories tracking task

    观测点 1 2 3 4 全域
    EGT 7 293 5 782 10 228 5 251 28 554
    ETP 7 094 5 467 9 535 4 942 27 038
    EFP2 89 153 391 161 794
    EFN2 110 162 302 148 722
    EIDSW 5 3 1 2 11
    EMOTA/% 97.20 94.50 93.21 94.08 94.65
    EMOTP/% 0.20 0.16 0.21 0.16 0.18
    下载: 导出CSV

    表  6  各观测点车辆速度EMAEEMAPE

    Table  6.   MAE and MAPE in vehicle speed detection

    观测点 1 2 3 4 全域
    EMAE/(km·h-1) 2.72 4.31 3.04 3.73 3.41
    EMAPE/% 4.32 6.03 4.43 5.29 5.00
    下载: 导出CSV

    表  7  数据采集时间内各车道不同类型车辆的区间平均速度

    Table  7.   Space mean speeds for different types of vehicles in each lane during data collection time  km·h-1

    车辆类型 车道1 车道2 车道3 车道4
    本文算法 人工测得 本文算法 人工测得 本文算法 人工测得 本文算法 人工测得
    所有车辆 57.13 59.08 69.95 71.56 73.73 74.99 82.60 84.34
    大型车辆 56.94 57.92 69.55 71.15 72.75 73.84 81.28 83.14
    小型车辆 57.28 59.16 69.99 71.61 73.74 75.06 83.04 84.48
    下载: 导出CSV

    表  8  数据采集时间内各车道不同类型车辆的交通密度

    Table  8.   Traffic densities for different types of vehicles in each lane during data collection time  veh·km-1

    车辆类型 车道1 车道2 车道3 车道4
    本文算法 人工测得 本文算法 人工测得 本文算法 人工测得 本文算法 人工测得
    所有车辆 7.08 7.20 6.74 6.83 5.87 6.23 3.37 3.56
    大型车辆 0.51 0.53 0.22 0.25 0.05 0.06 0.38 0.39
    小型车辆 6.55 6.67 6.52 6.58 5.82 6.17 2.99 3.17
    下载: 导出CSV

    表  9  数据采集时间内各车道不同类型车辆的交通流量

    Table  9.   Traffic volumes for different types of vehicles in each lane during data collection time  veh·h-1

    车辆类型 车道1 车道2 车道3 车道4
    本文算法 人工测得 本文算法 人工测得 本文算法 人工测得 本文算法 人工测得
    所有车辆 404.5 425.3 471.5 488.8 432.8 467.2 278.4 300.3
    大型车辆 29.3 30.7 15.2 17.7 3.5 4.1 30.3 32.5
    小型车辆 375.2 394.6 456.3 471.1 429.3 463.1 248.1 267.8
    下载: 导出CSV
  • [1] ZHOU Wei, YU Yun-hong, ZHAN Yun-fei, et al. A vision-based abnormal trajectory detection framework for online traffic incident alert on freeways[J]. Neural Computing and Applications, 2022, 34(17): 14945-14958. doi: 10.1007/s00521-022-07335-w
    [2] ZHANG Yun-chao, CHEN Yan-yan, GU Xin, et al. A proactive crash risk prediction framework for lane-changing behavior incorporating individual driving styles[J]. Accident Analysis and Prevention, 2023, 188: 107072-107089. doi: 10.1016/j.aap.2023.107072
    [3] 吕能超, 彭凌枫, 吴超仲, 等. 基于视频轨迹参数的边缘率减速标线驾驶行为效果评价方法[J]. 安全与环境学报, 2021, 21(2): 461-469.

    LYU Neng-chao, PENG Ling-feng, WU Chao-zhong, et al. Evaluative judgment of the driving behaviors of the edge rate deceleration bars based on the video trajectory parameters[J]. Journal of Safety and Environment, 2021, 21(2): 461-469.
    [4] MA Yue-xin, ZHU Xin-ge, ZHANG Si-bo, et al. TrafficPredict: Trajectory prediction for heterogeneous traffic agents[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 6120-6127. doi: 10.1609/aaai.v33i01.33016120
    [5] LIANG Hao-xiang, SONG Huan-sheng, YUN Xu, et al. Traffic incident detection based on a global trajectory spatiotemporal map[J]. Complex and Intelligent Systems, 2022, 8(2): 1389-1408. doi: 10.1007/s40747-021-00602-8
    [6] ZHANG T Y, JIN P J. A longitudinal scanline based vehicle trajectory reconstruction method for high-angle traffic video[J]. Transportation Research Part C: Emerging Technologies, 2019, 103: 104-128. doi: 10.1016/j.trc.2019.03.015
    [7] ZHANG Jia-xing, WEN Xiao, COIFMAN B, et al. Vehicle tracking and speed estimation from roadside lidar[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 5597-5608. doi: 10.1109/JSTARS.2020.3024921
    [8] 王俊骅, 宋昊, 景强, 等. 基于毫米波雷达组群的全域车辆轨迹检测技术方法[J]. 中国公路学报, 2022, 35(12): 181-192.

    WANG Jun-hua, SONG Hao, JING Qiang, et al. Road-range tracking of vehicle trajectories based on millimeter-wave radar[J]. China Journal of Highway and Transport, 2022, 35(12): 181-192.
    [9] ZHOU Yong, DONG Yan-yan, HOU Fu-jin, et al. Review on millimeter-wave radar and camera fusion technology[J]. Sustainability, 2022, 14(9): 5114.
    [10] 邓淇天, 李旭. 基于多特征融合的车辆检测算法[J]. 传感器与微系统, 2020, 39(6): 131-134.

    DENG Qi-tian, LI Xu. Vehicle detection algorithm based on multi-feature fusion[J]. Transducer and Microsystem Technologies, 2020, 39(6): 131-134.
    [11] 甘耀东, 郑玲, 张志达, 等. 融合毫米波雷达与深度视觉的多目标检测与跟踪[J]. 汽车工程, 2021, 43(7): 1022-1029, 1056.

    GAN Yao-dong, ZHENG Ling, ZHANG Zhi-da, et al. Multi-target detection and tracking with fusion of millimeter-wave radar and deep vision[J]. Automotive Engineering, 2021, 43(7): 1022-1029, 1056.
    [12] 贾鹏飞, 刘全周, 彭凯, 等. 多传感器信息融合的前方车辆检测[J]. 红外与激光工程, 2022, 51(6): 20210446.

    JIA Peng-fei, LIU Quan-zhou, PENG Kai, et al. Front vehicle detection based on multi-sensor information fusion[J]. Infrared and Laser Engineering, 2022, 51(6): 20210446.
    [13] 武一民, 郑凯元, 高博麟, 等. 基于自适应扩展Kalman滤波的路侧多传感器融合[J]. 汽车安全与节能学报, 2021, 12(4): 522-527.

    WU Yi-min, ZHENG Kai-yuan, GAO Bo-lin, et al. Roadside multi-sensor fusion based on adaptive extended Kalman filter[J]. Journal of Automotive Safety and Energy, 2021, 12(4): 522-527.
    [14] WANG Shu-jian, PI Ren-dong, LI Jian, et al. Object tracking based on the fusion of roadside LiDAR and camera data[J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 7006814.
    [15] 金沙沙, 龙伟, 胡灵犀, 等. 多目标检测与跟踪算法在智能交通监控系统中的研究进展[J]. 控制与决策, 2023, 38(4): 890-901.

    JIN Sha-sha, LONG Wei, HU Ling-xi, et al. Research progress of detection and multi-object tracking algorithm in intelligent traffic monitoring system[J]. Control and Decision, 2023, 38(4): 890-901.
    [16] 刘超, 罗如意, 刘春青, 等. 基于路侧多机视频目标关联与轨迹拼接的车辆连续轨迹构建方法[J]. 交通信息与安全, 2023, 41(3): 80-91.

    LIU Chao, LUO Ru-yi, LIU Chun-qing, et al. A method for developing continuous vehicle trajectories through target association and trajectory splicing based on video data from multiple roadside cameras[J]. Journal of Transport Information and Safety, 2023, 41(3): 80-91.
    [17] 耿华, 张涛, 连小珉, 等. 北斗卫星与车载传感器融合的车辆定位[J]. 汽车工程, 2007, 29(11): 929-933.

    GENG Hua, ZHANG Tao, LIAN Xiao-min, et al. Vehicle positioning by Beidou satellite fusing with on-board sensors[J]. Automotive Engineering, 2007, 29(11): 929-933.
    [18] ELAZAB M, NOURELDIN A, HASSANEIN H S. Integrated cooperative localization for vehicular networks with partial GPS access in urban canyons[J]. Vehicular Communications, 2017, 9: 242-253.
    [19] PEREA-STROM D, MORELL A, TOLEDO J, et al. GNSS integration in the localization system of an autonomous vehicle based on particle weighting[J]. IEEE Sensors Journal, 2020, 20(6): 3314-3323.
    [20] KIM K, IM J, JEE G. Tunnel facility based vehicle localization in highway tunnel using 3D LIDAR[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(10): 17575-17583.
    [21] CORNICK M, KOECHLING J, STANLEY B, et al. Localizing ground penetrating radar: a step toward robust autonomous ground vehicle localization[J]. Journal of Field Robotics, 2016, 33(1): 82-102.
    [22] 邓泽武, 胡钊政, 周哲, 等. 融合激光雷达与双层地图模型的智能车定位[J]. 汽车工程, 2022, 44(7): 1018-1026.

    DENG Ze-wu, HU Zhao-zheng, ZHOU Zhe, et al. Intelligent vehicle positioning by fusing LiDAR and double-layer map model[J]. Automotive Engineering, 2022, 44(7): 1018-1026.
    [23] ADEGOKE E I, ZIDANE J, KAMPERT E, et al. Infrastructure Wi-Fi for connected autonomous vehicle positioning: a review of the state-of-the-art[J]. Vehicular Communications, 2019, 20: 100185.
    [24] 王伟, 张朝阳, 唐心瑶, 等. 道路场景下相机自动标定及优化算法[J]. 计算机辅助设计与图形学学报, 2019, 31(11): 1955-1962.

    WANG Wei, ZHANG Chao-yang, TANG Xin-yao, et al. Automatic self-calibration and optimization algorithm of traffic camera in road scene[J]. Journal of Computer-Aided Design and Computer Graphics, 2019, 31(11): 1955-1962.
    [25] 辜志强, 吉鑫钰, 褚端峰, 等. 基于全局位置精度损失最小化的路侧多传感器目标关联匹配方法[J]. 中国公路学报, 2022, 35(3): 286-294.

    GU Zhi-qiang, JI Xin-yu, CHU Duan-feng, et al. A roadside multi-sensor target association matching method based on minimization of global position precision loss[J]. China Journal of Highway and Transport, 2022, 35(3): 286-294.
    [26] KE Guo-lin, MENG Qi, FINLEY T, et al. LightGBM: A highly efficient gradient boosting decision tree[J]. Advances in neural information processing systems, 2017, 2017: 3147-3155.
    [27] WOJKE N, BEWLEY A, PAULUS D. Simple online and realtime tracking with a deep association metric[C]//IEEE. 24th IEEE International Conference on Image Processing (ICIP). New York: IEEE, 2017: 3645-3649.
    [28] CHAN Si-xian, QIU Chen-hao, WU Di-juan, et al. Fusion detection and ReID embedding with hybrid attention for multi-object tracking[J]. Neurocomputing, 2024, 575: 127328.
    [29] KANHERE N K, BIRCHFIELD S T. A taxonomy and analysis of camera calibration methods for traffic monitoring applications[J]. IEEE Transactions on Intelligent Transportation Systems, 2010, 11(2): 441-452.
    [30] LUO Wen-han, XING Jun-liang, MILAN A, et al. Multiple object tracking: a literature review[J]. Artificial intelligence, 2021, 293: 103448-103471.
  • 加载中
图(10) / 表(9)
计量
  • 文章访问数:  82
  • HTML全文浏览量:  46
  • PDF下载量:  19
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-11-06
  • 刊出日期:  2025-02-25

目录

/

返回文章
返回