libonnxruntime_providers_cuda.so with error: libcudnn_adv.so.9

在安装了 onnxruntime-gpu 后,使用 CUDA 时报错:

shell 复制代码
2025-01-02 11:40:03.935340441 [E:onnxruntime:Default, provider_bridge_ort.cc:1862 TryGetProviderInfo_CUDA] /onnxruntime_src/onnxruntime/core/session/provider_bridge_ort.cc:1539 onnxruntime::Provider& onnxruntime::ProviderLibrary::Get() [ONNXRuntimeError] : 1 : FAIL : Failed to load library libonnxruntime_providers_cuda.so with error: libcudnn_adv.so.9: cannot open shared object file: No such file or directory

2025-01-02 11:40:03.935371734 [W:onnxruntime:Default, onnxruntime_pybind_state.cc:993 CreateExecutionProviderInstance] Failed to create CUDAExecutionProvider. Require cuDNN 9.* and CUDA 12.*. Please install all dependencies as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.

很明显,cudnn 并为正确配置。

首先需要说明:

PyTorch 的许多预编译版本(如通过 pip 或 conda 安装)会自带 CUDA 和 cuDNN。它会直接使用打包的版本,而不是依赖系统中全局安装的库。
ONNX Runtime 需要系统中明确安装且可用的 cuDNN 动态库

安装 cudnn,注意版本对应:

https://developer.nvidia.com/cudnn-downloads

shell 复制代码
proxychains4 wget https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/linux-x86_64/cudnn-linux-x86_64-9.1.0.70_cuda12-arch
ive.tar.xz

解压下载的文件:

shell 复制代码
tar -xvf cudnn-linux-x86_64-9.1.0.70_cuda12-archive.tar.xz

解压后,会看到一个名为 cuda 的目录,包含以下子目录:

  • include/: 包含头文件,如 cudnn.h
  • lib/: 包含动态库,如 libcudnn.so

将解压出来的文件复制到系统的 CUDA 安装路径(默认路径是 /usr/local/cuda/):

shell 复制代码
sudo cp ./cudnn-linux-x86_64-9.1.0.70_cuda12-archive/include/* /usr/local/cuda-12.4/include/

sudo cp ./cudnn-linux-x86_64-9.1.0.70_cuda12-archive/lib/* /usr/local/cuda-12.4/lib64/

更新动态链接库缓存,以确保系统可以正确找到 cuDNN 的动态库文件:

检查 LD_LIBRARY_PATH 是否包含 /usr/local/cuda/lib64:

shell 复制代码
echo $LD_LIBRARY_PATH

如果没有包含,编辑 ~/.bashrc 文件,添加以下内容:

shell 复制代码
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
shell 复制代码
source ~/.bashrc

更新动态库缓存:

shell 复制代码
sudo ldconfig

验证 cuDNN 是否正确安装:

shell 复制代码
ls /usr/local/cuda/lib64 | grep libcudnn

输出:

shell 复制代码
libcudnn_adv.so
libcudnn_adv.so.9
libcudnn_adv.so.9.1.0
libcudnn_adv_static.a
libcudnn_adv_static_v9.a
libcudnn_cnn.so
...

检查 cuDNN 版本:

shell 复制代码
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2

输出:

shell 复制代码
#define CUDNN_MAJOR 9
#define CUDNN_MINOR 1
#define CUDNN_PATCHLEVEL 0
相关推荐
程序员打怪兽1 小时前
详解YOLOv8网络结构
人工智能·深度学习
饭饭大王6663 小时前
CANN 生态中的轻量化部署利器:`lite-inference` 项目实战解析
深度学习
MSTcheng.3 小时前
CANN ops-math:AI 硬件端高效数学运算的算子设计与工程化落地方法
人工智能·深度学习·cann
Dev7z3 小时前
基于深度学习的肺部听诊音疾病智能诊断方法研究
人工智能·深度学习
像风一样的男人@5 小时前
python --读取psd文件
开发语言·python·深度学习
大江东去浪淘尽千古风流人物5 小时前
【SLAM新范式】几何主导=》几何+学习+语义+高效表示的融合
深度学习·算法·slam
yuanyuan2o25 小时前
【深度学习】全连接、卷积神经网络
人工智能·深度学习·cnn
汗流浃背了吧,老弟!6 小时前
BPE 词表构建与编解码(英雄联盟-托儿索语料)
人工智能·深度学习
小瑞瑞acd7 小时前
【小瑞瑞精讲】卷积神经网络(CNN):从入门到精通,计算机如何“看”懂世界?
人工智能·python·深度学习·神经网络·机器学习
芷栀夏7 小时前
CANN ops-math:揭秘异构计算架构下数学算子的低延迟高吞吐优化逻辑
人工智能·深度学习·神经网络·cann