【PyTorch】解决PyTorch安装中torch.cuda.is_available()返回False的问题

最近在安装PyTorch时遇到torch.cuda.is_available() = False的问题,特此记录下解决方法,以帮助其他遇到相同问题的人。

问题描述

Ubuntu 20.04,3060 Laptop,安装了CUDA 11.4,在Anaconda下新建了Python 3.8的环境,并且使用pytorch官网https://pytorch.org/get-started/previous-versions/,提供的如下安装指令

bash 复制代码
# CUDA 11.3
conda install pytorch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1 cudatoolkit=11.3 -c pytorch

安装适合11.3的版本是因为CUDA 11.4版本似乎比较特殊,官网并未提供适用于11.4的pytorch,经网上查询得知可以兼容11.3的。

然而,在虚拟环境中import torch之后使用torch.cuda.is_available()检查CUDA是否可用时,返回False。尽管电脑有GPU(执行nvidia-smi能够打印GPU信息),但无法利用其加速功能,非常无语。

以下是检查的步骤:

1. 确认PyTorch安装方式:

首先,需要确认PyTorch是以CPU版本还是GPU版本安装的。在自己创建的虚拟环境中,运行conda list命令查看已安装的PyTorch版本。如果发现安装的是CPU版本,需要将其卸载并重新安装GPU版本。

注意一个非常坑的地方:
用conda install安装的pytorch都是CPU版本的!!!

应该用pip install来安装

2. 卸载并且重新安装PyTorch:

如果发现安装的是CPU版本,需要卸载并重新安装PyTorch。强烈建议使用PIP安装方式,而不是通过conda安装。

进入虚拟环境,使用conda remove命令卸载PyTorch及相关包。例如:

bash 复制代码
conda remove pytorch torchvision torchaudio cudatoolkit

这将会卸载当前环境中安装的PyTorch、torchvision、torchaudio和cudatoolkit等包。

我换了另外一个版本安装

bash 复制代码
pip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https://download.pytorch.org/whl/cu113

3. 检查版本匹配性:

如果安装了GPU版本的PyTorch,但仍然遇到torch.cuda.is_available()返回False的问题,可能是版本不匹配导致的。请确保安装的PyTorch版本与CUDA版本相匹配,避免版本不一致导致的兼容性问题。

相关推荐
hrhcode15 小时前
【LangChain】一.LangChain v1.0-快速上手(核心组件、工具、中间件)
python·ai·langchain·agent
steven_yzx15 小时前
自动驾驶相机坐标系转换
人工智能·数码相机·自动驾驶
硅谷秋水15 小时前
《自动驾驶系统开发》英文版《Autonomous Driving Hanbook》推荐
人工智能·深度学习·机器学习·计算机视觉·语言模型·自动驾驶
SunnyDays101115 小时前
Python Word 转 Excel 详解(含整个文档、特定页面或表格转换)
python·word 转 excel·docx 转 xlsx·word 表格导出 excel
m0_7411733315 小时前
CSS移动端实现卡片悬浮投影_利用box-shadow设置层次感
jvm·数据库·python
西洼工作室15 小时前
uniapp+vue3+python对接阿里云短信认证服务alibabacloud_dypnsapi20170525
python·阿里云·uni-app
AI服务老曹15 小时前
深度解析:支持 GB28181/RTSP 及异构计算(X86/ARM+GPU/NPU)的 AI 视频管理平台架构方案(附源码交付与 Docker 部署)
arm开发·人工智能·音视频
珠海西格电力15 小时前
零碳园区管理系统“云-边-端”架构协同的价值及具体案例
大数据·数据库·人工智能·架构·能源
chushiyunen15 小时前
pygame实现射击游戏
python·游戏·pygame
AI木马人15 小时前
3.人工智能实战:大模型显存频繁 OOM?从 KV Cache、上下文长度到量化推理的完整优化方案
人工智能