Pytorch使用GPU训练全过程,包含安装CUDA、cuDNN、PyTorch

写在前面

笔记本

windows系统环境:windows 11

显卡:NVIDIA GeForce RTX 5080Laptop GPU

CUDA version:12.8

安装CUDA version:12.8

安装cuDNN version:9.7.0

对应的PyTorch:cu128

1. 检查硬件要求

1.1 确认电脑中有Nvidia显卡

因为使用GPU进行Yolo模型训练需要GPU支持。首先需要确认下我们系统中是否存在英伟达显卡。

方法一

打开终端,输入命令行回车:

cmd 复制代码
nvidia-smi

如果电脑中有Nvidia显卡,会打印出相关信息,显示支持的CUDA版本和显卡型号,打印信息如下:

我这里CUDA Version是12.8,意味着CUDA Toolkit Archive版本最高支持12.8,如果需要更高版本先确认显卡是否支持,然后去升级驱动。

如果没有显卡,则一般无法识读该命令,显示信息如下

方法二

具体为点击【此电脑】-【属性】,可以查看电脑的CPU,显卡等信息,如下:

1.2 查询显卡算力情况,以确保其满足PyTorch的最低算力要求

访问NVIDIA官网【计算能力】栏目或直接点击:CUDA GPUs - Compute Capability | NVIDIA Developer,下拉找到对应的GPU型号卡片,点击展开后可以看到该型号下各种GPU的算力情况。根据GPU算力看能不能跑起来Pytorch,Pytorch的最低算力要求表如下:

可以看到我的电脑对应的算力值是12.0

1.3 算力值对应的CUDA版本

通过网站可以https://en.wikipedia.org/wiki/CUDA可以查看算力值对应的CUDA版本,访问需要魔法,可以参考下图:

看到12.0的算力最低是12.8的版本,咱也不知道装低了有没有啥问题,就按12.8的来吧。

有开源的模型暂不支持12.0算力的显卡,满满的都是泪。

2. 安装CUDA

访问CUDA下载官网:CUDA Toolkit Archive | NVIDIA Developer,根据第一步查看到的自己的显卡支持的CUDA版本,下载并安装。

根据你的系统选择对应的版本,然后进行安装。其中安装方式,一种是本地安装,一种是在线安装,差距不大。我这里选择的在线安装【exe(network))】

下载完成后按部就班安装完成即可,安装过程选择自定义,建议尽可能全部勾选,防止缺失内容导致后续出现麻烦。安装结束后会要求重启电脑,重启即可。

安装的过程中C盘空间够,建议默认路径就行了,虽然有点大,但是放在其它盘,可能会发生一些其它莫名其妙的问题。

(注意:CUDA安装好后环境变量不需要配置,因为在安装之后就默认添加好了,9.0 版本之前(包括 9.0)还是需要配置环境变量的[2])

安装后cmd输入命令,可以看到安装的CUDA版本信息。如图所示:

复制代码
nvcc -V

3. 安装cuDNN

安装与CUDA对应版本的cuDNN,以加速深度学习计算。

访问cuDNN官网:cuDNN Archive | NVIDIA Developer,找到对应的cuDNN版本(根据你的CUDA版本来进行选择)

老的版本还有具体的匹配关系

但新的版本都是11.x或12.x了,也不知道是不是全部兼容,还是咋回事。

9.0版本之后的索性不装了,直接都不标记了。初次搭建,我也是一脸懵逼。

后来莫名其妙在github上发现了一个好东西。链接附上

https://github.com/cudawarped/opencv-python-cuda-wheels/releases

看图就行了,反正人家是这样搞的,我也先跟着抄吧。,于是乎,我下载了9.7.0的版本

看网上搜的有人说建议是version选择10,然后选择执行安装的exe文件安装吧。由于系统是win11,又是一脸懵逼,这里选择了Tarball,然后将文件解压copy。下面详细讲解一下我的步骤吧。

下载cuDNN需要注册一个NVIDIA官网账号,使用邮箱注册,按照提示完成注册即可跳转下载cuDNN。下载完成后得到一个压缩文件,里面有三个文件夹:

将这三个文件夹拷贝到你的CUDA安装目录下,默然安装的CUDA一般路径为:

复制代码
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vxx.x\
 
# vxx.x 为CUDA版本号,如v12.8,v12.6等

自定义安装的根据实际情况选择。

实际就是替换这三个文件夹中的内容:

复制代码
把 bin 目录的内容拷贝到:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\bin
 
把 include 目录的内容拷贝到:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\include
 
把 lib\x64 目录的内容拷贝到:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\lib\x64

4. 配置CUDA相关环境变量

将这三个路径添加到环境变量(即cuDNN的三个文件路径),如果存在不用重复添加了哈,安装CUDA的时候自动添加了一些:

具体作用,不是很清楚,有点尴尬,看见别人这样配的,照抄好用,真香~

复制代码
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\bin
 
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\include
 
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\lib\x64

5. 检查CUDA和cuDNN是否可用

打开终端,键入 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\extras\demo_suite目录下,输入以下命令行运行检测:

(1)运行 bandwidthTest.exe

路径:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\extras\demo_suite\bandwidthTest.exe

根目录终端命令行键入回车:注意自己的目录

复制代码
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\extras\demo_suite\bandwidthTest.exe

显示如下:

(2)运行 deviceQuery.exe

路径:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\extras\demo_suite\deviceQuery.exe

根目录终端命令行键入回车:注意自己的目录

复制代码
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\extras\demo_suite\deviceQuery.exe

如果两个最后输出"Results=PASS",检查通过,至此,CUDA何cuDNN安装完毕!

6. 使用PyTorch

6.1 创建python环境

使用Anaconda3创建一个新的Python环境。

如果没有安装Anaconda3可以参考为文章:Anaconda3下载安装,管理Python环境,切换镜像源

6.2 安装GPU版的PyTorch

选择与CUDA版本兼容的PyTorch版本进行安装。选择与 cuda 对应的 pytorch 版本。如果安装的 cuda 版本大于 pytorch 支持的版本,请选择向下的版本。

访问PyTorch官网: Start Locally | PyTorch,根据电脑配置和CUDA版本,选择对应的PyTorch下载命令,以我为例,使用Pip下载,CUDA版本12.8,选择配置参数后将命令行进行复制。

使用Anaconda Prompt,切换到我们创建的虚拟环境,粘贴复制的命令行回车安装。

由于GPU版本的Pytorch特别大,接近3个G,如果下载比较慢的话,建议使用国内镜像。

去你的ide里面,创建一个py文件,使用上面创建的环境,可以看到GPU是否可用了。接下来就可以使用GPU去愉快的进行模型训练了。

python 复制代码
import torch
 
if torch.cuda.is_available():
    print(f"GPU is available. Using GPU: {torch.cuda.get_device_name(0)}")
else:
    print("GPU is not available.")

7. 总结

之前一直没搞过模型训练,也是第一次使用GPU,网上很多文章,但版本大多相对较老。

本次的搭建过程可以说是磕磕绊绊,一边学习,一边整理资料,一边卸了装,装了卸。

整篇文章介绍了GPU的检测,安装CUDA,安装cuDNN,安装PyTorch,测试GPU等。

整体过程虽然磕绊,但总结下了许多宝贵的经验,希望可以帮助到需要的朋友。

数据标注、模型训练、模型使用等等,工作需要,磕磕绊绊吧,边使用,边学习,边输出。

相关推荐
如竟没有火炬4 分钟前
LRU缓存——双向链表+哈希表
数据结构·python·算法·leetcode·链表·缓存
Serverless 社区11 分钟前
阿里云函数计算 AgentRun 全新发布,构筑智能体时代的基础设施
人工智能·阿里云·云原生·serverless·云计算
IT_陈寒24 分钟前
Python开发者必看!10个高效数据处理技巧让你的Pandas代码提速300%
前端·人工智能·后端
咖啡续命又一天31 分钟前
python 自动化采集 ChromeDriver 安装
开发语言·python·自动化
新智元1 小时前
全球 AI 视频大战升级!「中国版 Sora」Vidu Q2 参考生月底发布,能力对标 Sora 2
人工智能·openai
新智元1 小时前
刚刚,Figure 03 惊天登场!四年狂造 10 万台,人类保姆集体失业
人工智能·openai
万猫学社1 小时前
我们为什么需要Agent?
人工智能
松果集2 小时前
【1】数据类型2
python
且慢.5892 小时前
命令行的学习使用技巧
python