安装Pytorch GPU+CPU版本【通过本地安装解决无法使用pip指令下载问题】

安装Pytorch GPU+CPU版本

本文方案为 只用驱动 + GPU 版 PyTorch

一、检查环境

1.检查CUDA版本

在命令行(CMD 或 PowerShell)运行:

复制代码
nvidia-smi

如果你看到 NVIDIA 驱动信息(例如 RTX 3060、CUDA Version 12.8),说明显卡驱动安装正常。
如果这个命令报错,说明 NVIDIA 驱动都没装好,请先安装驱动。

正常输出示例:

复制代码
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 573.24                 Driver Version: 573.24         CUDA Version: 12.8     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                  Driver-Model | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce RTX 5060 ...  WDDM  |   00000000:01:00.0  On |                  N/A |
| N/A   48C    P4             14W /  115W |    1697MiB /   8151MiB |      1%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|

这里可以看到CUDA型号,如:12.8。

2.检查Python版本

打开命令行输入:

复制代码
python --version

输出:

复制代码
Python 3.12.10

二、安装Pytorch

1.pip下载安装

官方链接:https://pytorch.org/get-started/locally/

清华源:

复制代码
pip install torch torchvision torchaudio --no-cache-dir -i https://pypi.tuna.tsinghua.edu.cn/simple

1.1GPU版本安装

在这里选择对应的CUDA版本即可生成pip指令,在PyCharm的终端里直接运行即可安装成功。

1.2CPU版本安装

直接选择CPU即可。

2.pip本地安装【GPU版本】

在国内使用生成的pip指令大概率是连不通的,尝试使用镜像源发现,似乎这会默认安装 CPU 版(可能是因为 PyPI 不区分 CUDA)。

所以这里提供第二种方案:使用pip指令本地安装

2.1下载.whl文件

打开 PyTorch 官方下载页面:https://download.pytorch.org/whl/cu128/

这个链接就是在[二、1.1]中生成的pip指令末尾的链接,本文以CUDA12.8为示例。

2.2选择对应版本

示例:

文件名 系统 Python版本 GPU支持 说明
torch-2.7.0+cu128-cp310-cp310-win_amd64.whl ✅ Windows 3.10 ✅ CUDA 12.8 适合RTX + Windows
torch-2.7.0+cu128-cp310-cp310-manylinux_2_28_x86_64.whl ✅ Linux 3.10 ✅ CUDA 12.8 服务器或 WSL 上用
torch-2.7.0+cu128-cp310-cp310-manylinux_2_28_aarch64.whl ✅ Linux ARM 3.10 ✅ CUDA 12.8 Jetson、树莓派等 ARM 平台
torch-2.4.1+cpu-cp38-cp38-win_amd64.whl ✅ Windows 3.8 ❌ CPU only 无 GPU 加速版

跟据自己的CUDA版本和Python版本选择匹配的文件,比如:

复制代码
torch-2.4.1+cu128-cp38-cp38-win_amd64.whl
torchvision-0.19.1+cu128-cp38-cp38-win_amd64.whl
torchaudio-2.4.1+cu128-cp38-cp38-win_amd64.whl

2.3安装

下载后放在同一目录下,然后在该目录中执行:

复制代码
pip install torch-2.4.1+cu128-cp38-cp38-win_amd64.whl
pip install torchvision-0.19.1+cu128-cp38-cp38-win_amd64.whl
pip install torchaudio-2.4.1+cu128-cp38-cp38-win_amd64.whl

这样就能在离线环境下成功安装 GPU 版。

三、验证【GPU 版】

安装完后运行 Python:

python 复制代码
import torch

print("PyTorch 版本:", torch.__version__)
print("CUDA 版本:", torch.version.cuda)
print("CUDA 是否可用:", torch.cuda.is_available())
print("GPU 数量:", torch.cuda.device_count())
print("当前 GPU 名称:", torch.cuda.get_device_name(0) if torch.cuda.is_available() else "无 GPU")

根据输出即可确认是否正确安装。

相关推荐
北辰alk10 小时前
RAG索引流程详解:如何高效解析文档构建知识库
人工智能
九河云10 小时前
海上风电“AI偏航对风”:把发电量提升2.1%,单台年增30万度
大数据·人工智能·数字化转型
wm104310 小时前
机器学习第二讲 KNN算法
人工智能·算法·机器学习
沈询-阿里11 小时前
Skills vs MCP:竞合关系还是互补?深入解析Function Calling、MCP和Skills的本质差异
人工智能·ai·agent·ai编程
xiaobai17811 小时前
测试工程师入门AI技术 - 前序:跨越焦虑,从优势出发开启学习之旅
人工智能·学习
盛世宏博北京11 小时前
云边协同・跨系统联动:智慧档案馆建设与功能落地
大数据·人工智能
TGITCIC11 小时前
讲透知识图谱Neo4j在构建Agent时到底怎么用(二)
人工智能·知识图谱·neo4j·ai agent·ai智能体·大模型落地·graphrag
逆羽飘扬12 小时前
DeepSeek-mHC深度拆解:流形约束如何驯服狂暴的超连接?
人工智能
bing.shao12 小时前
AI工作流如何开始
人工智能
小途软件12 小时前
用于机器人电池电量预测的Sarsa强化学习混合集成方法
java·人工智能·pytorch·python·深度学习·语言模型