图1 去雾效果对比图
Received:08 December 2022,
Revised:20 January 2023,
Published:05 October 2023
Scan QR Code
Cite this article
Vehicle detection is very vital to the assisted driving system. Due to the serious degradation of the foggy road scene, the vehicle information in the image is not obvious, resulting in missed detection and false detection problems in vehicle detection. Aiming at the above problems, a vehicle detection method in foggy weather combining millimeter-wave radar and machine vision is proposed. First, the dark channel dehazing algorithm is used to preprocess the image to improve the salience of vehicle information in the image under foggy conditions. Then, the knowledge distillation is used to improve the YOLOv5s algorithm, and the knowledge distillation is introduced into the feature extraction network of YOLOv5s, which is used in the target positioning and classification stages to calculate the distillation loss and backpropagate the loss to train a small network model to improve the detection speed while ensuring the accuracy of visual detection. Finally, the distance matching algorithm based on the search of potential target detection areas is used to compare the visual detection results and the millimeter-wave radar detection results decision-making fusion. Based on the type and distance of the detected target, the interference information and erroneous information is filtered out, and the targets with high confidence after fusion in millimeter-wave radar detection and visual detection is retained. Thereby, the accuracy of vehicle detection is improved. The experimental results show that the method has the highest detection accuracy rate of 92.8% and the recall rate of 90.7% in foggy weather, which can realize the detection of vehicles in foggy weather.
车辆检测是先进驾驶员辅助系统和自动驾驶汽车的关键技术。但是在雾天条件下,视觉图像严重受到影响,图像模糊泛白,缺乏细节信息,车辆信息显著度严重下降,直接导致了交通车辆检测质量的下降[
针对上述问题,本文首先对视觉图像进行去雾;然后采用知识蒸馏改进YOLO算法进行视觉检测,提高视觉检测速度;最后采用基于潜在目标距离匹配算法对视觉检测结果和毫米波雷达检测结果进行决策级融合,去除毫米波雷达的干扰信息,同时对视觉检测和毫米波雷达检测的缺失信息进行互相补足,提高大雾天气下车辆检测的准确性。
在公路上,由于地理特征和小气候环境的影响,雾天非常常见。在雾天环境中,大气光被空气中的水蒸汽和颗粒物散射,导致摄像机采集的图像对比度降低,缺乏图像细节。因此本文采用去雾算法对原始图像进行处理。目前现有的去雾算法主要分为传统图像去雾算法和深度学习去雾算法。传统图像去雾算法又分为非物理模型算法和物理模型算法。非物理模型算法通过对图像增强对比度来达到去雾的目的。物理模型算法是以大气散射模型为研究基础,通过各种先验信息求解无雾图像[
算法 | 优点 | 缺点 |
---|---|---|
自适应直方图均衡化 | 使用范围广 | 增强效果有限,鲁棒性差 |
暗通道去雾 | 稳定性高,实时性高 | 去雾效果偏暗 |
DehazeNet | 去雾效果好 | 网络结构复杂,实时性差 |
图1 去雾效果对比图
Fig.1 Comparison of defogging effects
由
在图像中,有雾存在的大气散射模型如
(1) |
其中:I(x)为原始图像,J(x)为原始图像的无雾状态,t(x)是大气光的透射率,A是大气光值。根据大气光值和透射率可以求得无雾图像,如
(2) |
算法流程图如
图2 暗通道先验去雾算法流程图
Fig.2 Flowchart of dark channel prior defogging algorithm
首先,输入原始有雾图像(
图3 去雾前后结果对比图
Fig.3 Comparison of results before and after defogging
本文研究对象为公路上的车辆,车辆行驶速度较快,尤其是在高速公路上,车辆行驶速度更快,因此对于车辆检测的实时性要求就比较高。在自动驾驶场景中,要求车辆检测的时间在15~20 ms之间,同时如果检测算法网络复杂、计算量大也不利于在车上的嵌入式设备上进行部署,因此本文选择YOLOv5算法进行车辆目标的检测。YOLOv5有5个版本,即YOLOv5x、YOLOv5l、YOLOv5m、YOLOv5s和YOLOv5n。各版本的性能见
模型 | mAP | 时间/ms | 参数/M | FLOPs/Billion |
---|---|---|---|---|
YOLOv5n | 28.0 | 45 | 1.9 | 4.5 |
YOLOv5s | 37.4 | 98 | 7.2 | 16.5 |
YOLOv5m | 45.4 | 224 | 21.2 | 49.0 |
YOLOv5l | 49 | 430 | 46.5 | 109.1 |
YOLOv5x | 50.7 | 766 | 86.7 | 205.7 |
YOLOv5s作为一种神经网络算法,其由输入层、输出层和隐藏层组成。输入层通常表示要处理的信号,输出层表示希望网络产生的预期结果。数据处理主要由位于输入层和输出层之间的隐藏层执行。每个连续的隐藏层都使用其上游层的输出作为输入,对其进行处理,然后将结果传递给下游层[
由于本文选择的YOLOv5s模型的目标检测时单张图片耗费平均时间为0.17 s,考虑最终还需要对视觉检测结果和毫米波雷达检测结果进行融合,因此视觉检测的实时性仍需要提高。本文提出基于知识蒸馏改进YOLOv5s算法以提高YOLOv5s检测的实时性。知识蒸馏利用传递学习来补充小模型中缺失的特定参数,以尽可能实现大模型的识别准确率。本文中大模型是教师网络,即原始的YOLOv5s车辆检测模型;小模型是学生网络,即改进后的车辆检测模型[
图4 蒸馏过程图
Fig.4 Distillation process diagram
在知识蒸馏过程中,根据教师网络输出的车辆目标预测结果与学生网络输出的车辆目标预测结果得到软损失函数,通过对损失函数的反向传播训练使学生网络不断向教师网络靠近。但由于教师网络的结果并非全部正确,为了保证学生网络车辆预测结果的准确性,引入硬损失函数,即通过真实车辆标签与学生网络的车辆预测结果得到硬损失函数,通过α、β系数对软硬损失函数进行校正,得到最终的总损失函数。
测量学生和教师模型的相似性可以用
(3) |
(4) |
其中:I为softmax的logits输入;T越高,教师模型输出车辆类别值概率分布越平坦,学生模型学到的知识越丰富。
总损失Ltotal如
(5) |
其中:
Lhard公式如
(6) |
Lsoft公式如
(7) |
在Lhard中,q
改进后的YOLOv5s算法检测结果如
图5 改进前后YOLOv5s检测结果对比
Fig.5 Comparison of YOLOv5s detection results before and after improvement
检测网络 | 准确率/% | 召回率/% | 预测时间/s | 模型参数/MB |
---|---|---|---|---|
YOLOv5s | 92.63 | 93.31 | 0.17 | 13.70 |
改进后YOLOv5s | 92.56 | 93.31 | 0.11 | 9.85 |
虽然去雾后视觉检测准确率有所提升,但是对于浓雾以及较远处的车辆信息依然显著度不高,检测准确率难以大幅度提升且鲁棒性不高,而毫米波雷达是依靠微波反射对目标进行检测,所以其不受光线的干扰,雾天也不会对毫米波雷达产生影响。同时毫米波雷达还兼具微波制导与光波制导的特点,除了可以获取目标的距离信息,还可以获取目标的速度和加速度信息。因此,辅助驾驶和自动驾驶常用其来进行感知和目标检测。但是在实际检测过程中,由于受到金属等障碍物的回波干扰以及毫米波雷达自身存在的不稳定因素,检测结果中会出现干扰目标和无效目标。本文采用毫米波雷达和视觉检测融合的方法实现对雾天车辆的检测,以提高检测的准确率。
为了滤除毫米波雷达检测的无效目标和干扰目标,本文首先对毫米波雷达数据进行筛选,保留行车道内的车辆目标。对于静止目标,考虑到车辆检测后续决策和规划中只有相邻车道内的静止目标需要检测,非相邻车道静止目标不会对本车造成影响,因此本文只检测相邻车道内的全部目标和车道内非相邻车道的非静止目标,根据相对位移和相对速度去除无效目标,如式(
(8) |
(9) |
式中:X0表示横向相对距离,v表示相对速度。根据我国道路技术规范和国家标准GB/T 33577要求,双向8车道是30 m,单车道为3.75 m,所以选定行车道的距离为28 m,相邻车道的横向相对距离为4.25 m。满足上述条件的为需要去除的行车道以外的所有目标以及相邻车道以外的静止目标。
本文采用坐标系转换来实现毫米波雷达和视觉的空间融合。
图6 毫米波雷达和视觉传感器坐标系
Fig.6 mm-wave radar and vision sensor coordinate system
毫米波雷达坐标[XW YW ZW]到图像坐标[u v]的转换过程可以根据
(10) |
式中:
为了实现时间融合,毫米波雷达和摄像机的数据采集必须及时同步。毫米波雷达和相机采样不均匀,帧速率分别约为10 FPS和30 FPS。本文以低频毫米波雷达的测量时间作为参考,使高频相机的数据向后兼容,实现毫米波雷达和相机之间的时间配准。
毫米波雷达和相机收集的目标数据完成时空对齐后,毫米波雷达数据在空间上转换为图像坐标系,以形成图像上感兴趣的毫米波雷达目标,但这不能识别目标是否为同一车辆目标。为了实现毫米波雷达检测结果和视觉检测结果的互相补充和纠正,本文对毫米波雷达检测目标和视觉检测目标进行匹配。通常,多传感器数据匹配算法主要是感兴趣区域匹配和距离排序匹配方法[
(11) |
本文根据毫米波雷达检测目标的横截面反射强度粗略估计目标类别。毫米波雷达检测到的目标横截面与目标类型的对应关系见
类型 | 公交车 | 自行车 | 汽车 | 卡车 |
---|---|---|---|---|
RCS | 160~180 | 2 | 100~150 | 200~300 |
本文定义了两个传感器检测到的目标的位置-类型相关矩阵,用{D}m×n表示,其中Dij是该矩阵中的一个元素,表示第i个摄像机目标和第j毫米波雷达探测目标。公式如
(12) |
其中:
假设在任何给定时刻,摄像机检测到视频数据中有m个机动目标,毫米波雷达检测到n个目标。由于每个传感器本身的检测性能存在一定差异,因此两个传感器检测到的目标数量m和n并不完全相等。假设匹配的偏差阈值为Dth,根据方程(11)计算摄像机视频中检测到的第i个目标与毫米波雷达检测到的第一个目标匹配的偏差为{D}m×n。找到满足条件Dij<Dth的数据目标对,然后确定数据目标对中偏差最小的数据目标。如果在摄像机采集的视频中检测到的第i个目标与毫米波雷达检测到的目标数据中的第j个目标的相似性最大,则确定该数据对可以表示两个传感器检测到目标的同一对象。
最后本文利用加权信息融合算法对匹配后的结果进行最终决策。在大雾天气下,毫米波雷达可以检测到更多的有效目标,而视觉在正常天气下的干扰信息更少。根据这两种传感器在雾天的识别能力和信息可靠性,本文设定在雾天下摄像机视觉识别权重为α,毫米波雷达识别权重为β,根据不同的天气情况设置不同的权重值,信息融合后目标属于每一类别的概率Prob表示为
(13) |
其中:Ec为视觉检测的置信度,Rc为毫米波雷达检测的目标存在的可能性,α+β=1。根据不同的天气情况设置不同的权重值,当出现概率超过50%时,则认为该目标存在。目标的最终类别i_max为maxProb。
本文采集实车测试结果,视觉传感器型号为CMOS摄像头,采集分辨率为1 920×1 080,采集频率为30帧/s。毫米波雷达选择德国大陆ARS404雷达。ARS404是77 GHz的雷达传感器,能够同时检测相对速度为-400~200 km/h的多个静止和移动目标,可检测多达250个原始点,有效探测距离为0~170 m。雾天主要分为薄雾、大雾、浓雾和强浓雾,其中水平能见度距离在1~10 km的称为薄雾,水平能见度距离在200~500 m的称为大雾,水平能见度距离在50~200 m的称为浓雾,水平能见度不足50 m的雾称为强浓雾。本文采集薄雾、大雾和浓雾3种天气情况下的视觉数据和毫米波雷达数据进行研究,用来验证本文提出的目标检测效果的准确性。
本文的去雾视觉检测实验所用硬件为单个具有64 GB内存的NVIDIA GeForce RTX 2080Ti GPU,操作系统为Ubuntu18.04。由于雾天场景较少,因此本文实际采集数据为1 500张,通过对晴朗天气进行加雾获得2 500张数据,以及从网上寻找大雾天气下的数据集1 500张,通过对原始数据进行增强,最终数据为10 000张,其中训练数据集为7 000张,测试数据集为3 000张。本文实验中采取的目标检测的评价标准有准确率以及召回率。
图7 去雾前后的检测结果对比图
Fig.7 Comparison of detection results before and after defogging
经过在数据集上测试,对比去雾前后目标检测的结果如
天气 | 原始图像 | 去雾后图像 | ||
---|---|---|---|---|
准确率/% | 召回率/% | 准确率/% | 召回率/% | |
薄雾 | 85.89 | 75.69 | 91.01 | 85.55 |
大雾 | 69.52 | 65.46 | 82.45 | 71.43 |
浓雾 | 62.34 | 44.42 | 67.89 | 47.62 |
毫米波雷达和视觉融合检测结果的测试采用实际采集的天气不同场景下的数据以及nuScenes数据集进行测试,包含薄雾、大雾、浓雾等。针对不同的天气设置不同的融合权重值。由
图8 实际采集数据融合检测结果
Fig.8 Results of fusion detection of actual collected data
图9 nuScenes数据集融合检测结果
Fig.9 Detection results of nuScenes dataset fusion
其中红色二维框为毫米波和视觉检测结果匹配成功后得到的目标二维框,绿色二维框为毫米波雷达检测的目标二维框,绿色的点为毫米波雷达检测的目标点。算法检测结果见
天气情况 | 车辆总数 | 去雾后视觉检测 | 毫米波雷达检测 | 融合后检测 | |||
---|---|---|---|---|---|---|---|
准确率/% | 召回率/% | 准确率/% | 召回率/% | 准确率/% | 召回率/% | ||
薄雾 | 1 521 | 91.01 | 85.55 | 83.63 | 88.12 | 92.81 | 90.70 |
大雾 | 875 | 82.45 | 71.43 | 82.97 | 86.84 | 87.36 | 88.81 |
浓雾 | 556 | 67.89 | 47.62 | 82.57 | 86.65 | 84.73 | 88.17 |
天气情况 | 准确率/% | 召回率/% |
---|---|---|
薄雾 | 92.01 | 90.37 |
浓雾 | 88.87 | 89.03 |
大雾 | 84.71 | 86.79 |
为了解决雾天车辆检测比较困难的问题,本文提出融合毫米波雷达和机器视觉方法检测车辆目标。首先通过去雾算法去除雾气对视觉图像的干扰;然后使用知识蒸馏算法改进YOLOv5s,提高目标检测的实时性;最后使用改进的欧式距离匹配算法匹配毫米波雷达检测结果与视觉的检测结果。实验结果表明,该方法有效融合了毫米波雷达的检测结果以及视觉的检测结果,有效提高了有雾天气下车辆的检测准确率,避免了单一传感器带来的误检和漏检问题,同时在实时性上满足自动驾驶场景要求,避免了多传感器融合导致的实时性不够的问题。
GUO Y, LIANG R L, CUI Y K, et al. A domain-adaptive method with cycle perceptual consistency adversarial networks for vehicle target detection in foggy weather [J]. IET Intelligent Transport Systems, 2022, 16(7): 971-981. doi: 10.1049/itr2.12190 [Baidu Scholar]
HE K M, SUN J, TANG X O, et al. Single image haze removal using dark channel prior [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2341-2353. doi: 10.1109/tpami.2010.168 [Baidu Scholar]
GAO T, LI K, CHEN T, et al. A novel UAV sensing image defogging method [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 2610-2625. doi: 10.1109/jstars.2020.2998517 [Baidu Scholar]
张炳力,詹叶辉,潘大巍,等. 基于毫米波雷达和机器视觉融合的车辆检测[J]. 汽车工程,2021,43(4):478-484. doi: 10.19562/j.chinasae.qcgc.2021.04.004 [Baidu Scholar]
ZHANG B L, ZHAN Y H, PAN D W, et al. Vehicle detection based on fusion of millimeter-wave radar and machine vision [J]. Automotive Engineering, 2021, 43(4): 478-484. (in Chinese). doi: 10.19562/j.chinasae.qcgc.2021.04.004 [Baidu Scholar]
JIANG Q Y, ZHANG L J, MENG D J. Target detection algorithm based on MMW radar and camera fusion [C]//Proceedings of 2019 IEEE Intelligent Transportation Systems Conference. Auckland: IEEE, 2019: 1-6. doi: 10.1109/itsc.2019.8917504 [Baidu Scholar]
HAN S Y, WANG X, XU L H, et al. Frontal object perception for intelligent vehicles based on radar and camera fusion [C]//Proceedings of the 35th Chinese Control Conference. Chengdu: IEEE, 2016: 4003-4008. doi: 10.1109/chicc.2016.7553978 [Baidu Scholar]
LUO Y, ZHAO Y F, LI J X, et al. Computational imaging without a computer: seeing through random diffusers at the speed of light [J]. eLight, 2022, 2(1): 4. doi: 10.1186/s43593-022-00012-4 [Baidu Scholar]
ZUO C, QIAN J M, FENG S J, et al. Deep learning in optical metrology: a review [J]. Light: Science & Applications, 2022, 11(1): 39. doi: 10.1038/s41377-022-00714-x [Baidu Scholar]
Guohai SITU G. Deep holography [J]. Light: Advanced Manufacturing, 2022, 3(2): 278-300. doi: 10.37188/lam.2022.013 [Baidu Scholar]
LIU H Y, SUN F Q, GU J, et al. SF-YOLOv5: a lightweight small object detection algorithm based on improved feature fusion mode [J]. Sensors, 2022, 22(15): 5817. doi: 10.3390/s22155817 [Baidu Scholar]
刘元峰,姬海军,刘立波. 基于YOLOv5s的高速公路车辆实时检测模型[J]. 液晶与显示,2022,37(9):1228-1241. doi: 10.37188/CJLCD.2022-0026 [Baidu Scholar]
LIU Y F, JI H J, LIU L B. Real-time detection model of highway vehicle based on YOLOv5s [J]. Chinese Journal of Liquid Crystals and Displays, 2022, 37(9): 1228-1241. (in Chinese). doi: 10.37188/CJLCD.2022-0026 [Baidu Scholar]
DAI G W, FAN J C. An industrial-grade solution for crop disease image detection tasks [J]. Frontiers in Plant Science, 2022, 13: 921057. doi: 10.3389/fpls.2022.921057 [Baidu Scholar]
XU D P, LIU Y Q, WANG Q, et al. Target detection based on improved hausdorff distance matching algorithm for millimeter-wave radar and video fusion [J]. Sensors, 2022, 22(12): 4562. doi: 10.3390/s22124562 [Baidu Scholar]
CHEN B, PEI X F, CHEN Z F. Research on target detection based on distributed track fusion for intelligent vehicles [J]. Sensors, 2020, 20(1): 56. doi: 10.3390/s20010056 [Baidu Scholar]
524
Views
210
Downloads
0
CSCD
Related Articles
Related Author
Related Institution