端到端自动驾驶模型SparseDrive部署过程

SparseDrive
论文链接

https://arxiv.org/pdf/2405.19620
仓库链接

https://github.com/swc-17/SparseDrive

论文和模型的相关介绍大家可以参考其他博客的介绍,这里只介绍模型部署的过程和中间可能遇到的问题解决办法,以及代码解析和使用记录。

模型部署

项目自带有# Quick Start文档,可以参考。

下载的几步可以同步执行。

这里也介绍一下:

1、conda验证或安装

需要使用conda构建虚拟环境

bash 复制代码
nvcc -V
指令查看conda版本
无conda查看conda安装文档

2、设置新的虚拟环境

初次使用进行create,后续只需进行activate即可。

bash 复制代码
conda create -n sparsedrive python=3.8 -y
conda activate sparsedrive

3、安装依赖包### Install dependency packpages

是整个过程最复杂的一步了吧,消耗时间较长

cd 至sparsedrive的文件目录下

bash 复制代码
sparsedrive_path="path/to/sparsedrive"
cd ${sparsedrive_path}
pip3 install --upgrade pip
pip3 install torch==1.13.0+cu116 torchvision==0.14.0+cu116 torchaudio==0.13.0 --extra-index-url https://download.pytorch.org/whl/cu116
pip3 install -r requirement.txt

很容易下载出错,也可以到下载链接出手动下载。https://download.pytorch.org/whl/cu116

按照对应的版本下载就行。我下载的是torch-1.13.0+cu116-cp38-cp38-linux_x86_64.whl等。

下载完成后进行离线安装

打开命令行,使用如下指令进入需要安装pytorch的环境中:

bash 复制代码
conda activate xxx ##xx代表需要安装的具体环境名称

进入对应环境后,输入下面的指令安装torch,torchvision和torchaudio。

bash 复制代码
pip install torch-2.0.0+cu117-cp39-cp39-linux_x86_64.whl
......
 ##安装所有下载的文件,注意使用文件的绝对路径

验证是否安装成功

通过在命令行中输入以下指令验证pytorch是否安装成功

bash 复制代码
python
>>>import torch
>>>torch.cuda.is_available()
True

当显示True表示torch安装成功。

bash 复制代码
pip3 install -r requirement.txt

执行这条指令时可能会报错

bash 复制代码
error: subprocess-exited-with-error
  
  × python setup.py egg_info did not run successfully.
  │ exit code: 1
  ╰─> [12 lines of output]
      fatal: 不是 git 仓库(或者任何父目录):.git
      Traceback (most recent call last):
        File "<string>", line 2, in <module>
        File "<pip-setuptools-caller>", line 34, in <module>
        File "/tmp/pip-install-az4fmfe4/flash-attn_4cf3f6b2d7834a539c7624728fa4b02f/setup.py", line 117, in <module>
          raise RuntimeError(
      RuntimeError: FlashAttention is only supported on CUDA 11.6 and above.  Note: make sure nvcc has a supported version by running nvcc -V.
      
      
      torch.__version__  = 1.13.0+cu116

原因是cuda版本过低,升级至要求版本即可。

4、编译可变形聚合操作### Compile the deformable_aggregation CUDA op

前置依赖torch,安装好后可以直接进行编译操作

bash 复制代码
cd projects/mmdet3d_plugin/ops
python3 setup.py develop
cd ../../../

5、准备数据集### Prepare the data

数据集下载链接

在下载页面下载数据集和CAN bus expansion

根据自己的需要下载mini或者all数据集。(点击后面荧光色US下载)

下载完成后移动至对应文件夹

bash 复制代码
cd ${sparsedrive_path}
mkdir data
ln -s path/to/nuscenes ./data/nuscenes

打包数据集的元信息和标签,并将所需的pkl文件生成到data/infos。

我们还在data_converter中生成map_annos,默认roi_size为(30,60)。

建议初始按照默认进行执行(如果你想要一个不同的范围,你可以在tools/data_converter/nuscenes_converter.py中修改roi_sze)。

bash 复制代码
sh scripts/create_data.sh

6、通过K-means生成锚点### Generate anchors by K-means

对于稀疏感知模块很重要

Gnerated anchors are saved to data/kmeans and can be visualized in vis/kmeans.

bash 复制代码
sh scripts/kmeans.sh

7、下载预训练权重### Download pre-trained weights

Download the required backbone pre-trained weights.

bash 复制代码
mkdir ckpt
wget https://download.pytorch.org/models/resnet50-19c8e357.pth -O ckpt/resnet50-19c8e357.pth

8、开始训练和测试### Commence training and testing

bash 复制代码
# train
sh scripts/train.sh

# test
sh scripts/test.sh

9、可视化### Visualization

sh scripts/visualize.sh
相关推荐
深度学习实战训练营1 小时前
基于CNN-RNN的影像报告生成
人工智能·深度学习
昨日之日20063 小时前
Moonshine - 新型开源ASR(语音识别)模型,体积小,速度快,比OpenAI Whisper快五倍 本地一键整合包下载
人工智能·whisper·语音识别
浮生如梦_3 小时前
Halcon基于laws纹理特征的SVM分类
图像处理·人工智能·算法·支持向量机·计算机视觉·分类·视觉检测
深度学习lover3 小时前
<项目代码>YOLOv8 苹果腐烂识别<目标检测>
人工智能·python·yolo·目标检测·计算机视觉·苹果腐烂识别
热爱跑步的恒川4 小时前
【论文复现】基于图卷积网络的轻量化推荐模型
网络·人工智能·开源·aigc·ai编程
阡之尘埃6 小时前
Python数据分析案例61——信贷风控评分卡模型(A卡)(scorecardpy 全面解析)
人工智能·python·机器学习·数据分析·智能风控·信贷风控
孙同学要努力8 小时前
全连接神经网络案例——手写数字识别
人工智能·深度学习·神经网络
Eric.Lee20218 小时前
yolo v5 开源项目
人工智能·yolo·目标检测·计算机视觉
其实吧39 小时前
基于Matlab的图像融合研究设计
人工智能·计算机视觉·matlab
丕羽9 小时前
【Pytorch】基本语法
人工智能·pytorch·python