autoware-1:安装环境cuda/cudnn/tensorRT库函数的判断

安装环境cuda/cudnn/tensorRT库函数的判断

1) CUDA 相关库(cudart / cuda / cublas)

命令:

bash 复制代码
ldconfig -p | grep -E 'libcudart|libcuda|libcublas' | head

输出:

text 复制代码
libcudart.so.12 (libc6,x86-64) => /usr/local/cuda/targets/x86_64-linux/lib/libcudart.so.12
libcudart.so    (libc6,x86-64) => /usr/local/cuda/targets/x86_64-linux/lib/libcudart.so
libcudadebugger.so.1 (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libcudadebugger.so.1
libcuda.so.1    (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libcuda.so.1
libcuda.so      (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libcuda.so
libcublasLt.so.12 (libc6,x86-64) => /usr/local/cuda/targets/x86_64-linux/lib/libcublasLt.so.12
libcublasLt.so  (libc6,x86-64) => /usr/local/cuda/targets/x86_64-linux/lib/libcublasLt.so
libcublas.so.12 (libc6,x86-64) => /usr/local/cuda/targets/x86_64-linux/lib/libcublas.so.12
libcublas.so    (libc6,x86-64) => /usr/local/cuda/targets/x86_64-linux/lib/libcublas.so

2) TensorRT 工具(trtexec)

命令:

bash 复制代码
trtexec

输出:

text 复制代码
bash: trtexec: command not found

3) TensorRT 运行库(nvinfer / nvonnxparser)

命令:

bash 复制代码
ldconfig -p | grep -E 'libnvinfer|libnvonnxparser' | head -n 50

输出:

text 复制代码
libnvonnxparser.so.10      (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libnvonnxparser.so.10
libnvonnxparser.so         (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libnvonnxparser.so
libnvinfer_plugin.so.10    (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libnvinfer_plugin.so.10
libnvinfer_plugin.so       (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libnvinfer_plugin.so
libnvinfer.so.10           (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libnvinfer.so.10
libnvinfer.so              (libc6,x86-64) => /usr/lib/x86_64-linux-gnu/libnvinfer.so

安装cudNN

bash 复制代码
 sudo apt install libcudnn9-dev-cuda-12

diffusiuon节点编译

两种方法

方法1:

bash 复制代码
 bash build_and_clean.sh /root/.cache/ccache /opt/autoware "--packages-up-to  autoware_diffusion_planner"

方法2:

bash 复制代码
source /opt/ros/humble/setup.bash

export CCACHE_DIR=/root/.cache/ccache
mkdir -p $CCACHE_DIR
bash 复制代码
colcon build   --merge-install   --install-base /opt/autoware   --mixin release compile-commands ccache   --packages-up-to autoware_diffusion_planner

docker_file

windows 版本

yaml 复制代码
services:
  autoware:
    image: ghcr.io/autowarefoundation/autoware:universe-devel-cuda
    network_mode: bridge
    container_name: autoware
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
        limits:
          memory: 30g
          cpus: "4"
    volumes:
      - "F:/autoware.tutorial_vehicle/src:/autoware/src"
      - "F:/autoware.tutorial_vehicle/autoware_data:/autoware_data"
      - "F:/autoware.tutorial_vehicle/autoware_map:/autoware_map"
    tty: true
    stdin_open: true

liunx 版本

相关推荐
NAGNIP13 小时前
轻松搞懂全连接神经网络结构!
人工智能·算法·面试
NAGNIP13 小时前
一文搞懂激活函数!
算法·面试
董董灿是个攻城狮13 小时前
AI 视觉连载7:传统 CV 之高斯滤波实战
算法
moshuying14 小时前
别让AI焦虑,偷走你本该有的底气
前端·人工智能
董董灿是个攻城狮15 小时前
零基础带你用 AI 搞定命令行
人工智能
喝拿铁写前端17 小时前
Dify 构建 FE 工作流:前端团队可复用 AI 工作流实战
前端·人工智能
阿里云大数据AI技术18 小时前
阿里云 EMR Serverless Spark + DataWorks 技术实践:引领企业 Data+AI 一体化转型
人工智能
billhan201618 小时前
MCP 深入理解:协议原理与自定义开发
人工智能
Jahzo18 小时前
openclaw桌面端体验--ClawX
人工智能·github