Pytorch 获取当前模型占用的 GPU显存的大小

1. 背景

AI 训练模型时需要知道模型占用显存的大小,以及剩余显存大小

2. 代码

bash 复制代码
import torch


# 检查GPU是否可用
if torch.cuda.is_available():
    # 获取当前设备
    device = torch.cuda.current_device()
    # 创建一个虚拟model
    model = torch.nn.Linear(25600, 20000, 20000).cuda()

    # 获取当前模型占用的显存大小
    model_memory = torch.cuda.memory_allocated()
    # 获取PyTorch预留的显存大小
    pytorch_memory = torch.cuda.max_memory_allocated() - model_memory
    # 打印模型占用的显存大小和PyTorch预留的显存大小
    print(f"Model memory usage: {model_memory / (1024 ** 3):.2f} GB")
    print(f"PyTorch memory usage: {pytorch_memory / (1024 ** 3):.2f} GB")

    # 获取已使用的显存大小
    total_memory = torch.cuda.get_device_properties(device=device).total_memory
    # 获取剩余的显存大小
    free_memory = total_memory - model_memory
    print(f"剩余的显存大小:{free_memory / (1024 ** 3):.2f} GB")

    # 释放虚拟张量占用的显存
    del model
    torch.cuda.empty_cache()
else:
    print("GPU is not available.")

运行结果:

bash 复制代码
Model memory usage: 1.91 GB
PyTorch memory usage: 0.00 GB
剩余的显存大小:3.89 GB
相关推荐
互联科技报4 分钟前
2026年短视频矩阵视频混剪工具赛道巨变:如何选择一款合适的短视频矩阵软件
大数据·人工智能
AI袋鼠帝8 分钟前
别卷Claude Code了,这才是普通人拥抱AI Coding的最短途径!
人工智能
毕胜客源码10 分钟前
卷积神经网络的农作物识别系统(有技术文档)深度学习 图像识别 卷积神经网络 Django python 人工智能
人工智能·python·深度学习·cnn·django
EQ-雪梨蛋花汤19 分钟前
【OpenAI】GPT-5.5发布!从“会说话”走向“会干活”(运算速度更快、逻辑更准,消耗Token更少)
人工智能·gpt
火山口车神丶24 分钟前
如何借助AI进行模块封装DIY
javascript·人工智能·算法
Data-Miner25 分钟前
41页精品PPT|AI大模型安全架构构建与落地实践解决方案
人工智能·安全·安全架构
nap-joker26 分钟前
生成式人工智能框架统一了人类多组学,以模拟衰老、代谢健康和干预反应
人工智能·衰老·ai-agent融合多组学数据·未来疾病
AI袋鼠帝36 分钟前
DeepSeek V4来了!
人工智能
a11177637 分钟前
jetpack5.0对应版本的torch和torchvision
python·开源·torch
Where-40 分钟前
LangChain核心组件-Tool
python·langchain