Pytorch-GPU版本离线安装

最近在复现一项深度学习的工作,发现自己的pytorch是装的cpu版的(好像当时是直接加清华源,默认是cpu版本)。从官网在线下载速度太慢,还时不时断开连接,我们可以配置conda的清华源去这个问题,但是考虑到是在用组内服务器,配崩了可能影响其它人(虽然我本机以前配置过),这次换个思路解决,从清华镜像源下载对应的安装包手动安装。

Pytorch安装命令

shell 复制代码
pip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https://download.pytorch.org/whl/cu118
shell 复制代码
nvidia-smi

自己查显卡能支持的版本,我的cuda版本最高支持12.3,但我习惯用cuda11.8

清华镜像源下载对应的pytorch安装包

下载地址:https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/linux-64/
注意这是linux版本的,windowx下载把linux-64替换成win-64

pytorch+cuda11.8


注意自己的python的版本

torchvision-0.16


注意自己的python的版本

安装pytorch

切换到对应的conda环境

shell 复制代码
conda activate env-name
conda install --offline  /path/to/pytorch-2.1.0-py3.8_cuda11.8_cudnn8.7.0_0.tar.bz2
conda install --offline  /path/to/pytorch-2.1.0-py3.8_cuda11.8_cudnn8.7.0_0.tar.bz2

检查pytorch是否安装成功

python 复制代码
import torch

# 检查是否可以使用 GPU
if torch.cuda.is_available():
    print("CUDA is available! PyTorch can use GPU.")
    print("CUDA version:", torch.version.cuda)
    print("Number of GPUs available:", torch.cuda.device_count())
    print("Current device name:", torch.cuda.get_device_name(0))
else:
    print("CUDA is not available. PyTorch cannot use GPU.")
相关推荐
小超同学你好几秒前
Transformer 17. Qwen 1 / Qwen 1.5 架构介绍以及与 Transformer、LLaMA 的对比
人工智能·语言模型·架构·transformer
新缸中之脑几秒前
Nano Banana 相机控制
人工智能·数码相机·计算机视觉
东离与糖宝几秒前
aiX-apply-4B小模型Java部署指南:消费级显卡跑AI编程,成本直降95%
java·人工智能
薛不痒3 分钟前
Llamafactory的使用(1)
人工智能·python·llama
AI人工智能+4 分钟前
基于OCR与大模型融合的文档抽取技术,可自动化完成证照信息抽取
人工智能·计算机视觉·语言模型·自然语言处理·ocr
不喝水的鱼儿4 分钟前
KT Qwen3.5-35B-A3B 记录
java·前端·python
沫儿笙5 分钟前
KUKA库卡焊接机器人智能节气仪
大数据·人工智能·机器人
zhangshuang-peta11 分钟前
MCP 的落地路径:从 PoC 到规模化部署的 4 个阶段
人工智能·ai agent·mcp·peta
小陈工12 分钟前
Python Web开发入门(三):配置文件管理与环境变量最佳实践
开发语言·jvm·数据库·python·oracle·性能优化·开源
nap-joker14 分钟前
TIP:表格图像预训练模型用于不完整数据的多模态分类
人工智能·分类·数据挖掘·表格-影像融合·不完整数据