Pytorch 获取当前模型占用的 GPU显存的大小

1. 背景

AI 训练模型时需要知道模型占用显存的大小,以及剩余显存大小

2. 代码

bash 复制代码
import torch


# 检查GPU是否可用
if torch.cuda.is_available():
    # 获取当前设备
    device = torch.cuda.current_device()
    # 创建一个虚拟model
    model = torch.nn.Linear(25600, 20000, 20000).cuda()

    # 获取当前模型占用的显存大小
    model_memory = torch.cuda.memory_allocated()
    # 获取PyTorch预留的显存大小
    pytorch_memory = torch.cuda.max_memory_allocated() - model_memory
    # 打印模型占用的显存大小和PyTorch预留的显存大小
    print(f"Model memory usage: {model_memory / (1024 ** 3):.2f} GB")
    print(f"PyTorch memory usage: {pytorch_memory / (1024 ** 3):.2f} GB")

    # 获取已使用的显存大小
    total_memory = torch.cuda.get_device_properties(device=device).total_memory
    # 获取剩余的显存大小
    free_memory = total_memory - model_memory
    print(f"剩余的显存大小:{free_memory / (1024 ** 3):.2f} GB")

    # 释放虚拟张量占用的显存
    del model
    torch.cuda.empty_cache()
else:
    print("GPU is not available.")

运行结果:

bash 复制代码
Model memory usage: 1.91 GB
PyTorch memory usage: 0.00 GB
剩余的显存大小:3.89 GB
相关推荐
金融RPA机器人丨实在智能2 分钟前
OpenClaw正在重写AI产业逻辑:当“行动式AI”席卷全球,实在Agent如何定义商业新范式?
人工智能·ai
飓风_数字IC验证10 分钟前
【业务】ISSCC 2026 五大领域核心Session文章梳理
大数据·人工智能
程序员Shawn12 分钟前
【机器学习 | 第六篇】- 机器学习
人工智能·算法·机器学习·集成学习
liliangcsdn15 分钟前
LLM长文本场景-如何用oneshot方式辅助分析财报
人工智能·全文检索
Yilena17 分钟前
一文讲透 Agent 应用中的记忆工程
人工智能·学习
RockHopper202517 分钟前
具身认知闭环论:具身智能工程的一个基础命题
人工智能·具身智能·具身认知
东离与糖宝27 分钟前
零基础Java学生面试通关手册:项目+算法+框架一次搞定
java·人工智能·面试
轻造科技28 分钟前
生产异常知识库+案例库:同类问题快速查解决方案,处理时间缩短60%
大数据·人工智能
ZhengEnCi31 分钟前
M2-如何转换为PDF
python