Ubuntu安装GPU驱动+CUDA+cuDNN的安装方法

一台有GPU的虚拟机如果没有安装CUDA的驱动,是需要我们手动去进行安装的,介绍Ubuntu操作系统的安装教程。

1. 下载安装文件

NVIDIA CUDA Toolkit Archive

点击上面链接,进入CUDA Toolkit Archive,下载需要的CUDA工具包,本文章以CUDA Toolkit 12.3.2版本举例(可能需要代理加速访问网页)

选择对应的系统,架构,发行版本,选择run文件安装方式

(可在服务器中输入uname -a查看当前服务器系统版本信息)

选择完后会出现run文件下载链接,可复制wget命令直接在服务器中下载,也可复制下载链接到浏览器上,通过本地浏览器下载再上传至服务器中。(注意:只下载不执行)

2. 禁用 nouveau 驱动

复制代码
sudo vim /etc/modprobe.d/blacklist-nouveau.conf

文件最后加入以下内容 (如果没有需要添加,否则忽略这步操作)

复制代码
 blacklist nouveau
 options nouveau modeset=0

更新使其生效

复制代码
 sudo update-initramfs -u

重启机器之后检查,

没有内容输出,说明禁用成功

复制代码
reboot  
lsmod | grep nouveau

3. 安装gcc/cmake

依次执行

复制代码
sudo apt-get update
sudo apt-get install gcc
sudo apt-get install cmake
 
# 查看版本
gcc --version
cmake --version

4. 运行安装文件

输入ls命令查看运行文件

输入chmod -x {文件名}赋予run文件执行权限

输入sh {文件名}运行run文件

等待一会儿后会弹出NVIDIA用户协议输入accept同意

默认选中显卡驱动,一起安装即可

等待程序运行。。。。

安装完成后,如下图

添加自己需要的cuda版本到环境变量, vim ~/.bashrc,添加以下内容到最后,如:

复制代码
export PATH=/usr/local/cuda-12.3/bin:$PATH                                                                                                                                                                                                
export LD_LIBRARY_PATH=/usr/local/cuda-12.3/lib64:$LD_LIBRARY_PATH

内容输入后,:wq 保存退出,

输入source ~/.bashrc 更新环境变量使刚刚输入的环境变量生效,输入nvcc -V 查看CUDA版本

输入命令nvidia-smi查看显卡驱动与CUDA版本,如下图所示,说明安装成功。

启动显卡持久化服务及其守护程序

复制代码
cat <<EOF >> /etc/systemd/system/nvidia-persistenced.service
[Unit]
Description=NVIDIA Persistence Daemon
Wants=syslog.target
 
[Service]
Type=forking
ExecStart=/usr/bin/nvidia-persistenced
ExecStopPost=/bin/rm -rf /var/run/nvidia-persistenced
 
[Install]
WantedBy=multi-user.target
EOF
 
systemctl daemon-reload
systemctl start nvidia-persistenced
systemctl enable nvidia-persistenced

在安装NVIDIA CUDA Toolkit时,cuDNN库并不是必须同时安装的,但安装cuDNN可以提供额外的性能优化,特别是在深度学习和某些高性能计算任务中。以下是一些关于是否需要安装cuDNN的考虑因素:

  1. 深度学习应用:如果你的工作或项目涉及到深度学习,特别是需要使用GPU加速的深度学习框架(如TensorFlow、PyTorch等),那么安装cuDNN是非常推荐的。cuDNN提供了针对深度学习算法的优化实现,可以显著提高训练和推理的速度。
  2. 性能需求:如果你的应用需要高性能的计算能力,并且对计算速度有较高的要求,那么安装cuDNN可以提供额外的性能提升。
  3. 兼容性:确保你安装的CUDA Toolkit版本与cuDNN版本兼容。NVIDIA提供了不同版本的CUDA Toolkit和cuDNN,它们之间有特定的兼容性要求。
  4. 空间和资源:cuDNN是一个额外的库,会占用一定的磁盘空间和系统资源。如果你的系统资源有限,或者你不需要cuDNN提供的性能优化,那么可以考虑不安装。
  5. 框架支持 :一些深度学习框架可能已经内置了对cuDNN的支持,或者提供了使用cuDNN的选项。在这种情况下,安装cuDNN可以使得这些框架能够利用GPU加速。
    总的来说,是否需要安装cuDNN取决于你的具体需求。如果你不确定是否需要cuDNN,可以先安装CUDA Toolkit,然后在需要的时候再安装cuDNN。这样,你可以在不牺牲性能的情况下,根据实际需求灵活地选择是否使用cuDNN。

5. 配置cuDNN库

cuDNN比CUDA安装简单,下载对应版本压缩包,拷贝文件到指定目录,给予权限就好了。

cuDNN官方下载地址(如果下载不了,需要登录NVIDIA账号)

下图为cuDNN对应版本关系

将tar包下载至服务器上,解压tar包,并将文件cp至对应位置命令如下:

复制代码
tar -xvf cudnn-linux-$arch-8.x.x.x_cudaX.Y-archive.tar.xz
cp cudnn-*-archive/include/cudnn*.h /usr/local/cuda/include
cp -P cudnn-*-archive/lib/libcudnn* /usr/local/cuda/lib64
chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
 
#加上版本号后,实际执行命令如下
tar -xvf cudnn-linux-x86_64-8.9.7.29_cuda12-archive.tar.xz 
cp cudnn-linux-x86_64-8.9.7.29_cuda12-archive/include/cudnn*.h /usr/local/cuda/include
cp -P cudnn-linux-x86_64-8.9.7.29_cuda12-archive/lib/libcudnn* /usr/local/cuda/lib64
chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*

使用以下命令查看cuDNN是否配置完成

复制代码
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2

相关安装包地址:https://pan.quark.cn/s/4a29f4c9ef9f

相关推荐
晨航16 分钟前
DeepSeek高校教程大合集(清华,北大,浙大,夏大,天大,湖大,天大,北师大),持续更新
人工智能·ai·aigc
Ganttable1 小时前
在刀刃上发力:如何精准把握计划关键节点
ai·甘特图
哦豁灬2 小时前
CUDA 学习(1)——GPU 架构
学习·架构·gpu
晨航14 小时前
清华大学第12弹:《DeepSeek政务应用场景与解决方案》.pdf(文末附免费下载地址)
人工智能·ai·aigc·政务
自由鬼18 小时前
人工智能:企业RAG方案
人工智能·python·机器学习·ai·deepseek
key_3_feng18 小时前
使用HAI来打通DeepSeek的任督二脉
ai·云计算·腾讯云·deepseek
程序员瓜叔21 小时前
PDF文件转Markdown,基于开源项目marker
ai·pdf
Eric Woo X21 小时前
DeepSeek R1 本地部署指南 (2) - macOS 本地部署
macos·ai·deepseek
LucianaiB1 天前
强大的AI网站推荐(第二集)—— V0.dev
人工智能·ui·ai·网站·推荐