Ubuntu安装GPU驱动+CUDA+cuDNN的安装方法

一台有GPU的虚拟机如果没有安装CUDA的驱动,是需要我们手动去进行安装的,介绍Ubuntu操作系统的安装教程。

1. 下载安装文件

NVIDIA CUDA Toolkit Archive

点击上面链接,进入CUDA Toolkit Archive,下载需要的CUDA工具包,本文章以CUDA Toolkit 12.3.2版本举例(可能需要代理加速访问网页)

选择对应的系统,架构,发行版本,选择run文件安装方式

(可在服务器中输入uname -a查看当前服务器系统版本信息)

选择完后会出现run文件下载链接,可复制wget命令直接在服务器中下载,也可复制下载链接到浏览器上,通过本地浏览器下载再上传至服务器中。(注意:只下载不执行)

2. 禁用 nouveau 驱动

复制代码
sudo vim /etc/modprobe.d/blacklist-nouveau.conf

文件最后加入以下内容 (如果没有需要添加,否则忽略这步操作)

复制代码
 blacklist nouveau
 options nouveau modeset=0

更新使其生效

复制代码
 sudo update-initramfs -u

重启机器之后检查,

没有内容输出,说明禁用成功

复制代码
reboot  
lsmod | grep nouveau

3. 安装gcc/cmake

依次执行

复制代码
sudo apt-get update
sudo apt-get install gcc
sudo apt-get install cmake
 
# 查看版本
gcc --version
cmake --version

4. 运行安装文件

输入ls命令查看运行文件

输入chmod -x {文件名}赋予run文件执行权限

输入sh {文件名}运行run文件

等待一会儿后会弹出NVIDIA用户协议输入accept同意

默认选中显卡驱动,一起安装即可

等待程序运行。。。。

安装完成后,如下图

添加自己需要的cuda版本到环境变量, vim ~/.bashrc,添加以下内容到最后,如:

复制代码
export PATH=/usr/local/cuda-12.3/bin:$PATH                                                                                                                                                                                                
export LD_LIBRARY_PATH=/usr/local/cuda-12.3/lib64:$LD_LIBRARY_PATH

内容输入后,:wq 保存退出,

输入source ~/.bashrc 更新环境变量使刚刚输入的环境变量生效,输入nvcc -V 查看CUDA版本

输入命令nvidia-smi查看显卡驱动与CUDA版本,如下图所示,说明安装成功。

启动显卡持久化服务及其守护程序

复制代码
cat <<EOF >> /etc/systemd/system/nvidia-persistenced.service
[Unit]
Description=NVIDIA Persistence Daemon
Wants=syslog.target
 
[Service]
Type=forking
ExecStart=/usr/bin/nvidia-persistenced
ExecStopPost=/bin/rm -rf /var/run/nvidia-persistenced
 
[Install]
WantedBy=multi-user.target
EOF
 
systemctl daemon-reload
systemctl start nvidia-persistenced
systemctl enable nvidia-persistenced

在安装NVIDIA CUDA Toolkit时,cuDNN库并不是必须同时安装的,但安装cuDNN可以提供额外的性能优化,特别是在深度学习和某些高性能计算任务中。以下是一些关于是否需要安装cuDNN的考虑因素:

  1. 深度学习应用:如果你的工作或项目涉及到深度学习,特别是需要使用GPU加速的深度学习框架(如TensorFlow、PyTorch等),那么安装cuDNN是非常推荐的。cuDNN提供了针对深度学习算法的优化实现,可以显著提高训练和推理的速度。
  2. 性能需求:如果你的应用需要高性能的计算能力,并且对计算速度有较高的要求,那么安装cuDNN可以提供额外的性能提升。
  3. 兼容性:确保你安装的CUDA Toolkit版本与cuDNN版本兼容。NVIDIA提供了不同版本的CUDA Toolkit和cuDNN,它们之间有特定的兼容性要求。
  4. 空间和资源:cuDNN是一个额外的库,会占用一定的磁盘空间和系统资源。如果你的系统资源有限,或者你不需要cuDNN提供的性能优化,那么可以考虑不安装。
  5. 框架支持 :一些深度学习框架可能已经内置了对cuDNN的支持,或者提供了使用cuDNN的选项。在这种情况下,安装cuDNN可以使得这些框架能够利用GPU加速。
    总的来说,是否需要安装cuDNN取决于你的具体需求。如果你不确定是否需要cuDNN,可以先安装CUDA Toolkit,然后在需要的时候再安装cuDNN。这样,你可以在不牺牲性能的情况下,根据实际需求灵活地选择是否使用cuDNN。

5. 配置cuDNN库

cuDNN比CUDA安装简单,下载对应版本压缩包,拷贝文件到指定目录,给予权限就好了。

cuDNN官方下载地址(如果下载不了,需要登录NVIDIA账号)

下图为cuDNN对应版本关系

将tar包下载至服务器上,解压tar包,并将文件cp至对应位置命令如下:

复制代码
tar -xvf cudnn-linux-$arch-8.x.x.x_cudaX.Y-archive.tar.xz
cp cudnn-*-archive/include/cudnn*.h /usr/local/cuda/include
cp -P cudnn-*-archive/lib/libcudnn* /usr/local/cuda/lib64
chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
 
#加上版本号后,实际执行命令如下
tar -xvf cudnn-linux-x86_64-8.9.7.29_cuda12-archive.tar.xz 
cp cudnn-linux-x86_64-8.9.7.29_cuda12-archive/include/cudnn*.h /usr/local/cuda/include
cp -P cudnn-linux-x86_64-8.9.7.29_cuda12-archive/lib/libcudnn* /usr/local/cuda/lib64
chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*

使用以下命令查看cuDNN是否配置完成

复制代码
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2

相关安装包地址:https://pan.quark.cn/s/4a29f4c9ef9f

相关推荐
阿部多瑞 ABU39 分钟前
大模型安全测试报告:千问、GPT 全系列、豆包、Claude 表现优异,DeepSeek、Grok-3 与 Kimi 存在安全隐患
gpt·安全·ai
扫地的小何尚6 小时前
NVIDIA Dynamo:数据中心规模的分布式推理服务框架深度解析
人工智能·分布式·microsoft·链表·语言模型·gpu
程序员老周6666 小时前
4.大语言模型预备数学知识
人工智能·神经网络·线性代数·自然语言处理·大语言模型·概率论·数学基础
Juicedata9 小时前
JuiceFS v1.3-Beta2:集成 Apache Ranger,实现更精细化的权限控制
运维·人工智能·ai
FrankHuang88817 小时前
使用高斯朴素贝叶斯算法对鸢尾花数据集进行分类
算法·机器学习·ai·分类
武子康17 小时前
AI炼丹日志-28 - Audiblez 将你的电子书epub转换为音频mp3 做有声书
人工智能·爬虫·gpt·算法·机器学习·ai·音视频
张铁牛18 小时前
2. LangChain4j-AIServices,原来调用AI这么简单?
ai·langchain4j
宝桥南山1 天前
DeepSeek - 尝试一下GitHub Models中的DeepSeek
microsoft·ai·微软·c#·github·.net
wang_yb1 天前
稀疏表示与字典学习:让数据“瘦身”的魔法
ai·databook
探索云原生1 天前
开源 vGPU 方案:HAMi,实现细粒度 GPU 切分
ai·云原生·kubernetes·gpu