windows + pytorch + gpu

nvidia、cuda和cudnn之间的版本匹配关系

1. 命令行查看nvidia的驱动版本

英伟达驱动版本是512.78,cuda版本是11.6(说明要下的cuda toolkit版本最高是11.6的)

插入:显卡驱动的安装

2. 网站查看cuda和英伟达驱动、cudnn之间的关系

插句题外话,如何理解cuda和英伟达驱动、cudnn之间的关系?

  • NVIDA驱动,在NVIDA控制面板的系统信息,组件中看到的driver就是。
  • CUDA(Compute Unified Device Architecture)是NVIDIA推出的用于自家GPU的并行计算框架,也就是说CUDA只能在NVIDIA的GPU上运行,而且只有当要解决的计算问题是可以大量并行计算的时候才能发挥CUDA的作用。一个电脑里可以拥有两个CUDA API,一个是dirver CUDA(显示屏幕用的) ,nvidia-smi输出的CUDA版本号,一个是runtime CUDA(加速深度学习),nvcc -V输出的CUDA版本号。nvidia-smi输出中显示的cuda version就是dirverCUDA,即现在电脑里有CUDA但只是显示屏幕用的,所以不能深度学习加速。那么想要加速深度学习需要再安装runtime CUDA,可以通过两种方式,一个是conda环境中安装,另一个是安装cudatoolkit
  • CUDA Toolkit (nvidia): CUDA完整的工具安装包,其中提供了 Nvidia 驱动程序、开发 CUDA 程序相关的开发工具包等可供安装的选项。包括 CUDA 程序的编译器、IDE、调试器等,CUDA 程序所对应的各式库文件以及它们的头文件。简单来讲就是CUDA Toolkit (nvidia)包含了dirver CUDA和runtimeCUDA 。另外说明,带有驱动程序的CUDA Toolkit (nvidia)可以从这里历史版本下载,可以选择两种安装方式,一种是在线安装,一中离线安装即本地安装。当我们选择离线安装,当我们选定相对应的版本之后,下载的时候发现这个地方的文件大小大概在2G左右,Linux系统下面我们选择runfile(local) 完整安装包从本地安装,或者是选择windows的本地安装。CUDA Toolkit本地安装包时内含特定版本Nvidia显卡驱动的。NVIDIA显卡驱动和CUDA工具包本身是不具有捆绑关系的,也不是一一对应的关系,只不过是离线安装的CUDA工具包会默认携带与之匹配的最新的驱动程序
  • CUDA Toolkit (Pytorch): CUDA不完整的工具安装包,其主要包含在使用 CUDA 相关的功能时所依赖的动态链接库。不会安装驱动程序。 个人理解就是CUDA Toolkit (Pytorch)只安装了runtime cuda。在pytorch环境中常使用如下指令去安装cudatoolkit(Pytorch),比如
python 复制代码
conda install pytorch torchvision cudatoolkit=11.3 -c pytorch
pip3 install torch==1.9.1+cu111 torchvision==0.10.1+cu111 torchaudio==0.9.1 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple

更详细地,
Pytorch 使用不同版本的 cuda
显卡,显卡驱动,nvcc, cuda driver,cudatoolkit,cudnn到底是什么?

  • cudnn :为深度学习计算设计的软件库,是一个SDK,是一个专门用于神经网络的加速包,是基于CUDA的深度学习GPU加速库。注意,它跟我们的CUDA没有一一对应的关系,即每一个版本的CUDA可能有好几个版本的cuDNN与之对应,但一般有一个最新版本的cuDNN版本与CUDA对应更好。有了cuDNN才能在GPU上完成深度学习的计算,再安装cudatoolkit(pytorch)时候,cuDNN会自动安装。安装cudatoolkit(nvidia)时候需要自己安装cuDNN。
  • pytorch是基于CUDA的深度学习框架,因此,pytorch的版本必须依赖于cuda toolkit的版本。
  • 插话结束

如果你的目的是用CUDA只加速深度学习,深度学习往往不同代码需要不同的cuda版本,如果安装cudatookit(nvidia)电脑上只有一个版本是不方便的,因此针对深度学习,安装的策略是:nvidia显卡驱动+cudatoolkit(pytorch)

不需要在电脑上再安装cudatoolkit(nvidia)就能加速深度学习,遇到需要新版本的cuda加速就再建立一个conda环境安装。

nvidia与cuda需要满足关系:
https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html

cuda与cudnn需要满足关系:
https://developer.nvidia.com/rdp/cudnn-archive

3. 确定需要下载的cuda和cudnn的版本

经过上述分析(装的CUDA必须小于等于自己的CUDA当前版本11.6),我们选择使用conda prompt下载cuda toolkit11.3.1,cudnn8.2.1

4. 打开pytorch官网,查找和cuda、cudnn版本匹配的torch

5. 验证

其他案例:
全流程安装https://zhuanlan.zhihu.com/p/454839461

并且cuda和cuDNN的教程是按照这个帖子装好的。

https://blog.csdn.net/jhsignal/article/details/111401628

原文链接:https://blog.csdn.net/HUASHUDEYANJING/article/details/128868737

其他一些问题:


相关推荐
熊猫钓鱼>_>1 分钟前
FastGPT革命:下一代语言模型的极速进化
人工智能·语言模型·自然语言处理
吕永强17 分钟前
电网的智能觉醒——人工智能重构能源生态的技术革命与公平悖论
人工智能·科普
极限实验室18 分钟前
喜报 - 极限科技荣获 2025 上海开源创新菁英荟「开源创新新星企业」奖
人工智能·开源
在美的苦命程序员24 分钟前
芯片之后,AI之争的下一个战场是能源?
人工智能
小白爱电脑26 分钟前
电脑上如何查看WiFi密码
windows·电脑
霖0032 分钟前
FPGA通信设计十问
运维·人工智能·经验分享·vscode·fpga开发·编辑器
天上游戏地下人间1 小时前
基于Opencv的缺陷检测实战
图像处理·人工智能·计算机视觉
A7bert7771 小时前
【YOLOv8-obb部署至RK3588】模型训练→转换RKNN→开发板部署
linux·c++·人工智能·python·yolo
小和尚同志1 小时前
使用 Dify 工作流实现每日热点简报
人工智能·aigc
羡鱼饼饼1 小时前
pytorch深度学习—RNN-循环神经网络
pytorch·rnn·深度学习