深度学习 | Pytorch的GPU版本查看GPU是否可用、GPU版本、GPU数量

新建文件test.py复制如下内容运行即可。注意环境要选择正确

py 复制代码
import torch

# 检查 GPU 是否可用
is_cuda_available = torch.cuda.is_available()
print(f"CUDA 可用: {is_cuda_available}")

if is_cuda_available:
    # 获取 GPU 数量
    gpu_count = torch.cuda.device_count()
    print(f"GPU 数量: {gpu_count}")

    # 获取每个 GPU 的名称
    for i in range(gpu_count):
        gpu_name = torch.cuda.get_device_name(i)
        print(f"GPU {i} 名称: {gpu_name}")

    # 获取当前 GPU 的索引
    current_device = torch.cuda.current_device()
    print(f"当前使用的 GPU 索引: {current_device}")
    
    # 获取当前 GPU 的名称
    current_gpu_name = torch.cuda.get_device_name(current_device)
    print(f"当前 GPU 名称: {current_gpu_name}")
else:
    print("没有可用的 GPU。")

运行结果示例和截图

如果你的系统上有可用的 GPU,运行上述代码后,你将看到类似以下的输出:

py 复制代码
CUDA 可用: True
GPU 数量: 2
GPU 0 名称: NVIDIA GeForce GTX 1080 Ti
GPU 1 名称: NVIDIA GeForce GTX 1070
当前使用的 GPU 索引: 0
当前 GPU 名称: NVIDIA GeForce GTX 1080 Ti
如果没有可用的 GPU,输出将显示:

CUDA 可用: False
没有可用的 GPU。
这样,你就可以轻松获取到 GPU 的信息了!
相关推荐
飞哥数智坊11 分钟前
AI 编程一年多,我终于明白:比技巧更重要的,是熟练度
人工智能·ai编程
新智元1 小时前
收手吧 GPT-5-Codex,外面全是 AI 编程智能体!
人工智能·openai
IT_陈寒1 小时前
Java 性能优化:5个被低估的JVM参数让你的应用吞吐量提升50%
前端·人工智能·后端
阿里云云原生1 小时前
阿里云基础设施 AI Tech Day AI 原生,智构未来——AI 原生架构与企业实践专场
人工智能
Memene摸鱼日报2 小时前
「Memene 摸鱼日报 2025.9.16」OpenAI 推出 GPT-5-Codex 编程模型,xAI 发布 Grok 4 Fast
人工智能·aigc
xiaohouzi1122332 小时前
OpenCV的cv2.VideoCapture如何加GStreamer后端
人工智能·opencv·计算机视觉
用户125205597082 小时前
解决Stable Diffusion WebUI训练嵌入式模型报错问题
人工智能
Juchecar3 小时前
一文讲清 nn.LayerNorm 层归一化
人工智能
martinzh3 小时前
RAG系统大脑调教指南:模型选择、提示设计与质量控保一本通
人工智能
小关会打代码3 小时前
计算机视觉案例分享之答题卡识别
人工智能·计算机视觉