Pytorch 获取当前模型占用的 GPU显存的大小

1. 背景

AI 训练模型时需要知道模型占用显存的大小,以及剩余显存大小

2. 代码

bash 复制代码
import torch


# 检查GPU是否可用
if torch.cuda.is_available():
    # 获取当前设备
    device = torch.cuda.current_device()
    # 创建一个虚拟model
    model = torch.nn.Linear(25600, 20000, 20000).cuda()

    # 获取当前模型占用的显存大小
    model_memory = torch.cuda.memory_allocated()
    # 获取PyTorch预留的显存大小
    pytorch_memory = torch.cuda.max_memory_allocated() - model_memory
    # 打印模型占用的显存大小和PyTorch预留的显存大小
    print(f"Model memory usage: {model_memory / (1024 ** 3):.2f} GB")
    print(f"PyTorch memory usage: {pytorch_memory / (1024 ** 3):.2f} GB")

    # 获取已使用的显存大小
    total_memory = torch.cuda.get_device_properties(device=device).total_memory
    # 获取剩余的显存大小
    free_memory = total_memory - model_memory
    print(f"剩余的显存大小:{free_memory / (1024 ** 3):.2f} GB")

    # 释放虚拟张量占用的显存
    del model
    torch.cuda.empty_cache()
else:
    print("GPU is not available.")

运行结果:

bash 复制代码
Model memory usage: 1.91 GB
PyTorch memory usage: 0.00 GB
剩余的显存大小:3.89 GB
相关推荐
Hcoco_me2 分钟前
Seq2Seq:Encoder-Decoder架构详解
人工智能·rnn·深度学习
bybitq8 分钟前
Leetcode-3780-Python
python·算法·leetcode
如何原谅奋力过但无声9 分钟前
【力扣-Python-75】颜色分类(middle)
python·算法·leetcode
江上鹤.14810 分钟前
Day44 训练和测试的规范写法
人工智能·深度学习·机器学习
masterqwer18 分钟前
day40打卡
python
Spring AI学习18 分钟前
Spring AI深度解析(11/50):异常处理与容错机制实战
java·人工智能·spring
小兔崽子去哪了19 分钟前
机器学习,KNN 算法
后端·python·机器学习
interception19 分钟前
爬虫逆向,瑞数6,补环境,国家专利
javascript·爬虫·python·网络爬虫
木头左21 分钟前
结合基本面分析的LSTM量化交易模型入参设计原则
人工智能·rnn·lstm
laocooon52385788623 分钟前
相对名次算法的处理python
开发语言·python·算法