3D雷达和相机联合标定:一种灵活且精确的基于目标的外参标定方法

3D雷达和相机联合标定:一种灵活且精确的基于目标的外参标定方法

附赠自动驾驶学习资料和量产经验:链接

摘要

本文介绍了3D雷达和相机联合标定:一种灵活且精确的基于目标的外参标定方法。自动驾驶的进展与传感器融合是分不开的。异构传感器由于其互补性质而被广泛应用于传感器融合,其中雷达和相机是最常装备的传感器。内参和外参标定是传感器融合中的必要步骤。外参标定与传感器自身的参数无关,并且在传感器安装之后进行,这在很大程度上决定了传感器融合的精度。很多基于目标的方法需要繁琐的操作过程和精心设计的实验条件,这使得它们极具挑战性。为此,我们提出了一种灵活、易于复现和精确的3D雷达和相机外参标定方法。本文所提出的方法不需要专门设计的标定环境,而是在地面上放置一个角点反射器(CR),同时使用机器人操作系统(ROS)迭代采集雷达和相机数据,并且基于它们的时间戳获取雷达-相机点的对应关系,然后使用这些点的对应关系作为输入来求解PnP问题,并且最终获得外参标定矩阵。此外,RANSAC被用于提高鲁棒性,而LM非线性优化算法用于改善精度。多个受控环境实验以及真实世界实验证明了本文所提出方法的效率和精度(AED误差为15.31个像素,Acc达到89%)。

主要贡献

本文的贡献总结如下:

1)本文提出了一种基于目标的3D雷达-相机标定方法,其容易操作、易于复现并且结果精确;

2)本文方法使用一个角点反射器作为标定目标,不仅避免了多个标定目标或者支撑它们的三脚架引起的雷达反射干扰,并且有助于其它研究员方便复现实验;

3)本文方法进行异常值滤除以缓解雷达检测稳定性,并且采用RANSAC和LM优化算法确保标定鲁棒性和精确性;

4)多个受控环境实验以及真实世界实验证明了本文所提出方法的效率和精度。

论文图片和表格

总结

在本文中,我们提出了一种3D雷达和相机的外参标定方法。该方法仅使用单个角点反射器作为标定目标,并且对操作没有严格的要求或者规定。所有操作都是将角点反射器自由放置在任意开放空间,并且重复多次以获得足够的标定数据。这使得该方法灵活且易于复现。一系列的受控环境和真实世界实验(包括不同的实验场景和实验目标)证明了所提出方法的精度和鲁棒性。具体而言,其AED为15.31个像素,CDSD为9.40,而人类目标或者车辆目标的ACC分别为89%和66%。今后,我们将探索基于所提出方法的在线标定方法,并且研究精确标定不在同一装置中的传感器的方法。

相关推荐
Tfly__5 小时前
在PX4 gazebo仿真中加入Mid360(最新)
linux·人工智能·自动驾驶·ros·无人机·px4·mid360
CV@CV19 小时前
2026自动驾驶商业化提速——从智驾平权到Robotaxi规模化落地
人工智能·机器学习·自动驾驶
小白|21 小时前
CANN在自动驾驶感知中的应用:构建低延迟、高可靠多传感器融合推理系统
人工智能·机器学习·自动驾驶
小白|1 天前
CANN与联邦学习融合:构建隐私安全的分布式AI推理与训练系统
人工智能·机器学习·自动驾驶
CV@CV2 天前
拆解自动驾驶核心架构——感知、决策、控制三层逻辑详解
人工智能·机器学习·自动驾驶
春日见2 天前
window wsl环境: autoware有日志,没有rviz界面/ autoware起不来
linux·人工智能·算法·机器学习·自动驾驶
不做无法实现的梦~2 天前
思翼mk32遥控器配置图传和数传教程
linux·嵌入式硬件·机器人·自动驾驶
CV@CV2 天前
自动驾驶端到端大模型实战——从原理到工程化落地
人工智能·机器学习·自动驾驶
CV@CV2 天前
自动驾驶传感器融合技术解析——L4级落地的核心支撑
人工智能·机器学习·自动驾驶
渡众机器人2 天前
智驭未来,越野如风:北京渡众机器人全新智能履带式机器人教学科研平台正式发布!
人工智能·机器人·自动驾驶·车路协同·智能网联