LaneNet(1):网络结构详解

前言

这是一种端到端的车道线检测方法,包括LanNet+H-Net两种网络模型。

LanNet是一种多任务模型,它将实例分割任务分解为"语义分割"和"像素矢量表示",然后对这两个分支的结果进行聚类,得到实例分割的结果。

H-Net是一个小型网络,负责预测变换矩阵H,使用变换矩阵H来重构属于同一车道线的所有像素。也就是说,学习给定输入图像的透视变换参数,透视变换可以很好地适应斜坡道路上的车道线。

总体网络结构如下:

论文:Towards End-to-End Lane Detection: an Instance Segmentation Approach

开源代码:https://github.com/MaybeShewill-CV/lanenet-lane-detection?tab=readme-ov-file

开源数据集:https://github.com/TuSimple/tusimple-benchmark/issues/3

一、LanNet

LanNet对输入图像进行实例分割,其中网络结构分为两个方向,一个是语义分割,另一个是对像素进行向量表示,最后将两个分支的结果进行聚类,得到实例分割的结果。LaneNet输出实例分割的结果,为每个车道线像素分配一个车道线ID。

1.1 网络结构

先看看网络结构:

分支1语义分割Segmentation,对像素进行二分类,判断像素属于车道线还是背景;

分支2对像素进行向量Embedding,对像素进行嵌入式表示,把图像特征表示为嵌入空间中,特征之间的关系映射在嵌入空间。

聚类 ,基于Mean-Shift算法实现的,把将两个分支的结果进行聚类,得到实例分割的结果。

LaneNet是基于ENet的encoder-decoder模型,如下图所示,ENet由5个stage组成,其中stage2和stage3基本相同,stage1,2,3属于encoder,stage4,5属于decoder。

1.2 语义分割

这部分是对像素进行二分类,判断像素属于车道线还是背景;并且高度不平衡,因此参考了ENet,损失函数使用的是标准的交叉熵损失函数

设计语义分割模型时,为了处理遮挡问题,论文对被车辆遮挡的车道线和虚线进行了还原(估计);

Loss使用softmax_cross_entropy,为了解决样本分布不均衡的问题,使用了boundedinverseclassweight对loss进行加权:

其中,p为对应类别在总体样本中出现的概率,c是超参数。

Loss的设计参考了:论文ENet:ADeepNeuralNetworkArchitectureforReal-TimeSemanticSegmentation

1.3 像素映射到嵌入空间

当分割识别得到车道后,为了知道哪些像素归这条车道,哪些归那条车道,需要训练一个车道instanceembedding分支网络。它能输出一个车道线像素点距离,归属同一车道的像素点距离近,反之远,基于这个策略,可聚类得到各条车道线。

为了区分车道线上的像素属于哪条车道,为每个像素初始化一个embedding向量,并且在设计loss时,使属同一条车道线的表示向量距离尽可能小,属不同车道线的表示向量距离尽可能大

这部分的loss函数是由三部分组成:方差损失、距离损失、回归损失:

其中,C是车道线数量,Nc是属同一条车道线的像素点数量,μc是车道线的均值向量,xi是像素向量(pixelembedding)。

该loss函数源自于论文《SemanticInstanceSegmentationwithaDiscriminativelossfunction》

方差loss(Lvar):当像素向量(pixelembedding)xi与对应车道线均值向量μc的距离大于δv时,模型会进行更新,使得xi靠近μc;

距离loss(Ldist):当不同车道线均值向量μca和μcb之间的距离小于δd时,模型会进行更新,使得μca与μcb远离彼此;

方差loss(Lvar)使得像素向量向车道线的均值向量μc靠近,距离loss(Ldist)则会推动聚类中心远离彼此。

1.4 聚类

embedding(像素映射到嵌入空间)已经为聚类提供好的特征向量了,利用这些特征向量我们可以利用任意聚类算法来完成实例分割的目标。

聚类是基于Mean-Shift算法实现的,把将两个分支的结果进行聚类,得到实例分割的结果。

首先使用meanshift聚类,使得簇中心沿着密度上升的方向移动,防止将离群点选入相同的簇中;之后对像素向量进行划分,直到将所有的车道线像素分配给对应的车道。

二、H-Net

LaneNet的输出是每条车道线的像素集合,还需要根据这些像素点回归出一条车道线。传统的做法是将图片投影到俯视图(鸟瞰图)中,然后使用2阶或者3阶多项式进行拟合。在这种方法中,变换矩阵H只被计算一次,所有的图片使用的是相同的变换矩阵,这会导致地平面(山地,丘陵)变化下的误差。

为了解决这个问题,论文训练了一个可以预测变换矩阵H的神经网络H-Net,网络的输入是图片,输出是变换矩阵H

通过置0对转置矩阵进行约束,即水平线在变换下保持水平。(即坐标y的变换不受坐标x的影响)

由上式可以看出,转置矩阵H只有6个参数,因此H-Net的输出是一个6维的向量。H-Net由6层普通卷积网络和一层全连接网络构成,其网络结构如图所示:

三、模型效果

车道线检测效果,与其他模型对比

模型的精度高达96.4%,这个效果挺不错了。

模型速度:

2018年:在NVIDIA1080TI上测得的512X256图像的速度。总的来说,车道检测可以以52FPS的速度运行。检测速度比较快了,实时性较高。

2020年:添加实时分割模型BiseNetV2作为Lanenet主干,新模型在单幅图像推理过程中可以达到78fps。可以在此处找到基于BiseNetV2训练的新Lanenet模型。

模型效果:

语义分割和像素嵌入效果:

实体分割效果:

模型效果:

参考:https://segmentfault.com/a/1190000040583331/en

相关推荐
准橙考典2 天前
如何考驾照?
物联网·安全·华为·自动驾驶·汽车
睡觉狂魔er2 天前
自动驾驶控制与规划——Project 3: LQR车辆横向控制
人工智能·机器学习·自动驾驶
金书世界5 天前
自动驾驶AVM环视算法--python版本的超广角投影模式
人工智能·机器学习·自动驾驶
真诚的灰灰6 天前
MAPTR:在线矢量化高精地图构建的结构化建模与学习(2208)
人工智能·学习·机器学习·自动驾驶·汽车
china—hbaby6 天前
人工智能在自动驾驶领域的技术与应用
人工智能·机器学习·自动驾驶
可即6 天前
自动驾驶域控制器简介
人工智能·自动驾驶·智能电视
月眠老师8 天前
自动驾驶与汽车自动化:开启交通新时代
人工智能·自动驾驶
智能汽车人8 天前
自动驾驶---小米汽车智驾进展
人工智能·自动驾驶·汽车
睡觉狂魔er8 天前
自动驾驶控制与规划——Project 2: 车辆横向控制
人工智能·机器学习·自动驾驶
♢.*8 天前
自动驾驶2022-2024年论文汇总与解析
论文阅读·人工智能·计算机视觉·nlp·自动驾驶