融合点云深度信息的3D目标检测与分类
目的 基于点云的3D目标检测是自动驾驶领域的重要技术之一.由于点云的非结构化特性,通常将点云进行体素化处理,然后基于体素特征完成3D目标检测任务.在基于体素的3D目标检测算法中,对点云进行体素化时会导致部分点云的数据信息和结构信息的损失,降低检测效果.针对该问题,本文提出一种融合点云深度信息的方法,有效提高了 3D目标检测的精度.方法 首先将点云通过球面投影的方法转换为深度图像,然后将深度图像与3D目标检测算法提取的特征图进行融合,从而对损失信息进行补全.由于此时的融合特征以2D伪图像的形式表示,因此使用YOLOv7(you only look once v7)中的主干网络提取融合特征.最后设计回归与分类网络,将提取到的融合特征送入到网络中预测目标的位置、大小以及类别.结果 本文方法在KITTI(Karlsruhe Institute of Technol-ogy and Toyota Technological Institute at Chicago)数据集和 DAIR-V2X 数据集上进行测试.以 AP(average precision)值为评价指标,在KITTI数据集上,改进算法PP-Depth相较于PointPillars在汽车、行人和自行车类别上分别有0.84%、2.3%和1.77%的提升.以自行车简单难度为例,改进算法PP-YOLO-Depth相较于PointPillars、PP-YOLO和PP-Depth分别有5.15%、1.1%和2.75%的提升.在DAIR-V2X数据集上,PP-Depth相较于PointPillars在汽车、行人和自行车类别上分别有17.46%、20.72%和12.7%的提升.以汽车简单难度为例,PP-YOLO-Depth相较于PointPil-lars、PP-YOLO 和PP-Depth分别有13.53%、5.59%和1.08%的提升.结论 本文方法在KITTI数据集和DAIR-V2X数据集上都取得了较好表现,减少了点云在体素化过程中的信息损失并提高了网络对融合特征的提取能力和多尺度目标的检测性能,使目标检测结果更加准确.
自动驾驶、3D点云目标检测、深度信息融合、点云体素化、KITTI数据集
29
TP391(计算技术、计算机技术)
2024-09-12(万方平台首次上网日期,不代表论文的发表时间)
共14页
2399-2412