自动驾驶之激光雷达

这里写目录标题

  • [1 什么是激光雷达](#1 什么是激光雷达)
  • [2 激光雷达的关键参数](#2 激光雷达的关键参数)
  • [3 激光雷达种类](#3 激光雷达种类)
  • [4 自动驾驶感知传感器](#4 自动驾驶感知传感器)
  • [5 激光雷达感知框架](#5 激光雷达感知框架)
    • [5.1 pointcloud_preprocess](#5.1 pointcloud_preprocess)
    • [5.2 pointcloud_map_based_roi](#5.2 pointcloud_map_based_roi)
    • [5.3 pointcloud_ground_detection](#5.3 pointcloud_ground_detection)
    • [5.4 lidar_detection](#5.4 lidar_detection)
    • [5.5 lidar_detection_filter](#5.5 lidar_detection_filter)
    • [5.6 lidar_tracking](#5.6 lidar_tracking)

1 什么是激光雷达

  • 激光雷达LiDAR的全称为Light Detection and Ranging 激光探测和测距。
  • 激光雷达的工作原理:对红外光束Light Pluses发射、反射和接收来探测物体。白天或黑夜下的物体与车之间的距离。甚至由于反射度的不同,车道线和路面也可以区分。光束无法探测到被遮挡的物体

2 激光雷达的关键参数

  • 点频:每帧水平方向平均点数x垂直方向平均点数x帧率=(水平视场角/水平角分辨率)×(垂直视场角/垂直角分辨率)
  • 扫描频率:10Hz就代表每秒扫描10次(转10圈)
  • 视角(Field of View, FOV):FOV包括垂直视场角(VFOV)、水平视场角(HFOV)、对角线视场角(DFOV);通常,在没有特殊说明时,我们默认的FOV一般都是水平视场角

  • 角分辨率:指的是相邻两个激光扫描点之间的角度间隔,一般以度(°)为单位。由于目前激光雷达有很多种扫描方式,每种方式在扫描点分布上的差异,导致扫描点并不绝对均匀,因此这里讲的激光雷达角分辨率是一个等效平均的概念。直观理解,角分辨率越小,单位空间角内分布的激光点数就越多,其对于物体的分辨能力就会越强。相同角分辨率下,对同一物体,距离越远探测到的激光点数越少,如图所示。

因为每100ms(10Hz)转360度, 水平角分辨率为0.2°, 转一圈就产生360/0.2=1800个点, 如果每50ms(20Hz) 转一圈, 就转一圈就产生360/0.4=900个点, 通常自动驾驶领域为了点更密集, 常采取10Hz.(一节课上老师讲的,有点疑惑,一圈点更密为什么更好?不都是看时间的吗?)

  • 线数: 对于机械激光雷达来说, 一般多少线就需要多少个激光器。
  • 反射率: 激光雷达返回值除了三维点坐标 (x, y, z)之外, 还有反射率和距离, 入射角度, 与物体表面反射率
  • 波长: 常见的激光雷达波长为 905nm, 1550nm两种, 1550nm 距离可见光波段更远, 所以对人眼更安全, 波长更长穿透度更好,更有利于在雨雾天气使用, (由于成本较高, 还未成为主流)。
  • 探测距离:一般要求200米,以达到最远刹车距离的要求
  • 回波模式: 单回波和多回波, 激光雷达发出的激光点是有一定面积的, 有时可能会出现1个激光点发出后, 打在2个物体上(如同一束激光打在两片树叶上), 此时可以选择是接受最后一次回波的值还是反射强度最强的回波的值。

以禾赛128为例

1、10%反射率下最远探测距离200米

2、视场角:120°x25.4°

3、角分辨率:0.1°(H)X0.2°(V)

4、功耗:18W

5、尺寸:137mmX112mmX47mm

3 激光雷达种类

  1. 传统机械扫描; AT128,有机械结构,体积比较大。
  • 使用机械部件旋转来改变发射角度,水平360度扫描
  • EE了激光器堆叠工艺复杂,体积过大,垂直线数受限,难以通过
  1. MEMS(Micro‐Electro‐Mechanical System) 半固态激光雷达
      MEMS在硅基芯片上集成了体积十分精巧的微振镜,其核心结构是尺寸很小的悬臂梁------通过控制微小的镜面平动和扭转往复运动,将激光管反射到不同的角度完成扫描,而激光发生器本身固定不动。
  • 优点:运动部件减少,体积小,成本相对较低。
  • 缺点:MEMS可转角受限,限制扫描视野,存在成像拼接的问题
  1. FLASH 泛光面阵式, 纯固态激光雷达,
      FLASH工作原理类似于摄像头, 只不过摄像头是被动接受光信息, 而FLASH是主动发射面激光并接受反射激光, Flash激光雷达的成像原理是发射大面积激光一次照亮整个场景,然后使用多个传感器接收检测和反射光。但最大的问题是这种工作模式需
    要非常高的激光功率。而在体积限制下,Flash激光雷达的功率密度不能很高。因此Flash激光雷达由于功率密度的限制,无法考虑三个参数:视场角、检测距离和分辨率,即如果检测距离较远,则需要牺牲视场角或分辨率;如果需要高分辨率,则需要牺牲视场角或检测距离
  2. OPA(Optical Phased Array) 光学相控阵,全固态激光雷达;
      光学相控阵技术的原理是利用光源相干技术实现光线角度偏转,从而达到扫描测距的目的。OPA激光雷达发射的是光,而光和电磁波一样也表现出波的特性。波与波之间会产生干
    涉现象,通过控制相控阵雷达平面阵列各个阵元的电流相位,利用相位差可以让不同的位置的波源会产生干涉(类似的是两圈水波
    相互叠加后,有的方向会相互抵消,有的会相互增强),从而指向特定的方向,往复控制便得以实现扫描效果。
  • 优点:OPA是纯固态器件,无需要活动的机械结构,
  • 缺点:激光雷达对激光调试、信号处理的运算力要求很高。
  • 前沿性探索阶段

4 自动驾驶感知传感器

下图是传感器感知的视野图,从图中可以看到,传感器的视野比人的视野更加宽广深远且盲区更小,基本能够涵盖车辆360度范围。

感知主要的传感器:Lidar、Radar(长距、短距)、Camera。
视觉传感器一般用于障碍物、车道线、交通灯检测、目标检测和跟踪功能。基本原理是首先获取图像并将图片转化为二维数据,然后通过深度学习方法做目标识别,再根据相机的内外参计算目标物体和主车的相对距离和相对速度。毫米波雷达主要用于目标检测、换道辅助、自适应巡航控制、停车辅助等,激光雷达一般应用于障碍物检测、定位等。
在智能驾驶领域,通常车辆会配置多种感知器,分别执行不同的任务,并进行感知融合。在感知融合中,会对所有目标进一步处理,得到更加准确的目标类别、距离、尺寸、速度等,感知完成红绿灯检测、车道线检测目标融合之后,把感知信息发送给下游模块

5 激光雷达感知框架

以百度Apollo为例

感知框架中lidar、camera、radar、fusion 四部分内容定义在四个模块中。Lidar 和 camera 每个模块内部功能复杂,学习成

本较高。感知框架拆分后,模块依赖关系清晰。Lidar 和 camera 的感知流程分为多个模块,依赖关系呈线性状态;radar

和 fusion 的功能在单个模块内,功能如框图所示。

激光雷达检测用于 3D 目标检测,它的输入是激光雷达点云,输出为检测到的物体的类型和坐标。

  • pointcloud_preprocess:点云预处理模块对输出的点云数据进行预处理。 删除超值点、太远的点、扫描到自身车辆上的点、太高的点。
  • pointcloud_map_based_roi:过滤 ROI 之外的点云。 感兴趣区域 (ROI) 指定可行驶区域,包括从高精地图检索到的路面和路口。 HDMap ROI 过滤器处理 ROI 外部的lidar点,去除背景物体,例如道路周围的建筑物和树木。 剩下的就是ROI中的点云以供后续处理。 给定HDMap,每个 LiDAR 点的隶属关系指示它是在 ROI 内部还是外部。
  • pointcloud_ground_detection:点云地面检测,检测地面点,并保存所有非地面点的索引。
  • lidar_detection:基于点云进行3D物体检测,并输出检测到的物体的位置、大小和方向。 Apollo提供了4种激光雷达检测模型:centerpoint、maskpillars、pointpillars、cnnseg。
  • lidar_detection_filter:根据对象属性、车道线、ROI 等过滤前景和背景对象。
  • lidar_tracking:跟踪模块用于跟踪障碍物的运动轨迹,更新障碍物的运动状态和几何形状,并分配跟踪id。
  • multi_sensor_fusion :多传感器融合模块融合Lidar、Camera、Radar多个传感器的输出结果,使检测结果更加可靠。该模块采用后处理技术,采用的算法是概率融合

5.1 pointcloud_preprocess

点云预处理模块对点云做过滤,删除异常的、感知不需要的点云。

  • 删除空值,超限值点云;
  • 删除过远(超过1000m)的点云;
  • 删除过高的点云;
  • 点云转化到主车自身坐标系,删除扫描到主车身上的点云。

5.2 pointcloud_map_based_roi

点云基于地图计算兴趣区域(roi,region of interest),根据高精度地图的road和junction边界判断点云是否在高精度地图内,获得

在高精地图内的点的索引。

下图是基于地图roi过滤的效果图。红色的是roi内的点云,白色的是roi外的点云。

5.3 pointcloud_ground_detection

地面点检测功能是检测出地面点,获得所有非地面点的索引,即non_ground_indices。

下图是地面点云检测的示例图,红色的点云是非地面点云,白色的是地面点云。分割出地面点云后,去除前景目标点云。然后用

剩余的非地面点云做聚类,检测当前场景下的所有目标,保证自动驾驶的安全性。

5.4 lidar_detection

检测模型完成目标检测功能,获得目标的如下结果:cx, cy, cz, length, width, height, heading, type

其中,(cx, cy, cz)是中心点,(length, width, height)是长宽高,heading是朝向,type是目标类别。示例如下

除了获取目标,还根据目标的3d bounding box,得到每个目标的所有点云。

5.5 lidar_detection_filter

完成激光雷达目标检测后,对检测目标做过滤。object_filter_bank可以同时使用多个过滤器,针对roi_boundary_filter做介绍,

roi_boundary_filter只用来处理前景目标(即妨碍车辆行驶的目标)。roi_boundary_filter过滤规则如下图。

5.6 lidar_tracking

多目标跟踪,获取目标运动的历史轨迹,得到更加稳定的朝向、速度、位置等信息,得到跟踪id。多目标跟踪的结果可进一步用于障碍物轨迹预测。

detections 来自最新检测的结果,tracks 表示历史的匹配结果。Match 是目标匹配算法,最终得到三种匹配结果:

  • unassigned tracks:历史的目标没有和最新的检测结果匹配上,这种情况会更新历史 tracks,并删除过老的 tracks
  • assignment:表示已经匹配上,根据dets和tracks更新tracks。
  • unassignement detections:最新检测的结果没有匹配上,添加到历史tracks中。这时会赋予一个新的track‐id。
相关推荐
Elastic 中国社区官方博客2 小时前
使用 Elastic AI Assistant for Search 和 Azure OpenAI 实现从 0 到 60 的转变
大数据·人工智能·elasticsearch·microsoft·搜索引擎·ai·azure
yusaisai大鱼4 小时前
TensorFlow如何调用GPU?
人工智能·tensorflow
珠海新立电子科技有限公司6 小时前
FPC柔性线路板与智能生活的融合
人工智能·生活·制造
IT古董7 小时前
【机器学习】机器学习中用到的高等数学知识-8. 图论 (Graph Theory)
人工智能·机器学习·图论
曼城周杰伦7 小时前
自然语言处理:第六十三章 阿里Qwen2 & 2.5系列
人工智能·阿里云·语言模型·自然语言处理·chatgpt·nlp·gpt-3
余炜yw8 小时前
【LSTM实战】跨越千年,赋诗成文:用LSTM重现唐诗的韵律与情感
人工智能·rnn·深度学习
莫叫石榴姐8 小时前
数据科学与SQL:组距分组分析 | 区间分布问题
大数据·人工智能·sql·深度学习·算法·机器学习·数据挖掘
如若1238 小时前
利用 `OpenCV` 和 `Matplotlib` 库进行图像读取、颜色空间转换、掩膜创建、颜色替换
人工智能·opencv·matplotlib
YRr YRr9 小时前
深度学习:神经网络中的损失函数的使用
人工智能·深度学习·神经网络