查看模型参数量

跑完的模型存为best_model.pth文件,怎么可以快速计算该模型的参数量。

第一步,(我选择在pycharm的terminal中)先查看文件的结构:

bash 复制代码
python -c "import torch; print(list(torch.load('替换模型路径/best_model.pth').keys()))"

解释一下,其中:

  • torch.load(): 加载PyTorch保存的文件
  • .keys(): 获取文件中的所有键(即保存的内容项)
  • print(list(...)): 打印键的列表

输出示例:

bash 复制代码
['epoch', 'model', 'optimizer', '...']
# 其中,model代表 模型参数(也可能是:state_dict、model_state_dict)

第二步,基于上述输出结果,从model键中提取模型参数并计算总数:

bash 复制代码
python -c "import torch; ckpt=torch.load('替换模型路径/best_model.pth'); model_dict=ckpt['model']; total=sum(p.numel() for p in model_dict.values() if isinstance(p, torch.Tensor)); print(f'模型参数量: {total:,} (≈{total*4/1024/1024:.1f} MB)')"

解释一下,其中:

  • ckpt['model']: 获取模型参数字典

  • model_dict.values(): 获取所有参数张量

  • p.numel(): 计算每个张量的元素个数(参数数量)

  • isinstance(p, torch.Tensor): 确保是张量类型

  • sum(...): 累加所有参数

  • total*4/1024/1024: 计算模型大小(假设float32,每个参数4字节)

最终输出:

模型参数量:XXX(XXMB)

相关推荐
NAGNIP5 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab6 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab6 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP10 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年10 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
AI探索者10 小时前
LangGraph StateGraph 实战:状态机聊天机器人构建指南
python
AI探索者10 小时前
LangGraph 入门:构建带记忆功能的天气查询 Agent
python
九狼10 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS10 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区12 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤