Pytorch 获取当前模型占用的 GPU显存的大小

1. 背景

AI 训练模型时需要知道模型占用显存的大小,以及剩余显存大小

2. 代码

bash 复制代码
import torch


# 检查GPU是否可用
if torch.cuda.is_available():
    # 获取当前设备
    device = torch.cuda.current_device()
    # 创建一个虚拟model
    model = torch.nn.Linear(25600, 20000, 20000).cuda()

    # 获取当前模型占用的显存大小
    model_memory = torch.cuda.memory_allocated()
    # 获取PyTorch预留的显存大小
    pytorch_memory = torch.cuda.max_memory_allocated() - model_memory
    # 打印模型占用的显存大小和PyTorch预留的显存大小
    print(f"Model memory usage: {model_memory / (1024 ** 3):.2f} GB")
    print(f"PyTorch memory usage: {pytorch_memory / (1024 ** 3):.2f} GB")

    # 获取已使用的显存大小
    total_memory = torch.cuda.get_device_properties(device=device).total_memory
    # 获取剩余的显存大小
    free_memory = total_memory - model_memory
    print(f"剩余的显存大小:{free_memory / (1024 ** 3):.2f} GB")

    # 释放虚拟张量占用的显存
    del model
    torch.cuda.empty_cache()
else:
    print("GPU is not available.")

运行结果:

bash 复制代码
Model memory usage: 1.91 GB
PyTorch memory usage: 0.00 GB
剩余的显存大小:3.89 GB
相关推荐
多年小白几秒前
日报 - 2026年4月28日(周二)
网络·人工智能·科技·深度学习·ai
极智视界3 分钟前
分类数据集 - 棉花病虫害检测图像分类数据集下
人工智能·yolo·数据集·图像分类·算法训练·棉花病虫害检测
龙腾AI白云9 分钟前
AI项目团队意见分歧?协调与决策方法
人工智能·pygame
Mr数据杨11 分钟前
AIGC工具平台-Tauri2.x智能工具桌面介绍与使用
人工智能·aigc·tauri
IT观测11 分钟前
电话机器人服务商选型指南:核心维度与实操解析
人工智能·机器人·语音识别
用户93520139867913 分钟前
淘宝开放平台 item_cat_get 接口详解:获取淘宝商品类目
python
dfdfadffa19 分钟前
SQL窗口函数如何优化嵌套子查询_提升执行效率
jvm·数据库·python
时空系25 分钟前
第6篇:多维数据盒——管理大量数据 python中文编程
开发语言·python·ai编程
bryant_meng27 分钟前
【Hung-yi Lee】《Introduction to Generative Artificial Intelligence》(11)
人工智能·深度学习·llm·speculative·预言家
OriginHub_元枢智汇27 分钟前
知识图谱的检索增强:图结构与向量化技术的融合实践
人工智能·知识图谱