Pytorch中保存模型的两种方法

目录

一、保存整个模型

这种方法会保存模型的整个定义(包括网络结构和参数)。这样保存的模型可以直接被加载并使用,但前提是保存和加载模型的代码环境需要完全一致。

保存模型时使用代码:

python 复制代码
torch.save(model, 'model.pth')

加载模型时使用代码:

python 复制代码
model = torch.load('model.pth')

二、只保存模型参数

这种方法只会保存模型的状态字典(state_dict),即模型的参数。加载这样的模型需要先定义模型的结构,然后加载参数。

保存模型使用代码:

python 复制代码
torch.save(model.state_dict(), 'params.pth')

加载模型使用代码:

python 复制代码
model = Model()  # 需要先定义模型结构
model.load_state_dict(torch.load('params.pth'))
相关推荐
派葛穆2 分钟前
汇川PLC-Python与汇川easy521plc进行Modbustcp通讯
开发语言·python
海兰6 分钟前
【第2篇】LangChain的初步实践
人工智能·langchain
漫游的渔夫8 分钟前
别再直接 `json.loads` 了!AI 返回的 JSON 坑位指南
前端·人工智能
Warren2Lynch13 分钟前
AI 驱动的 UML 图表支持全景指南
人工智能·架构·uml
代码小书生29 分钟前
Matplotlib,Python 数据可视化核心库!
python·信息可视化·matplotlib
小鱼~~29 分钟前
什么是父进程
人工智能
找了一圈尾巴36 分钟前
OpenClaw技能实战:Experience Distiller 让AI从错误中自我进化
人工智能·openclaw
蕤葳-39 分钟前
AI项目经验在招聘中的作用
人工智能
devpotato1 小时前
人工智能(四)- Function Calling 核心原理与实战
java·人工智能
进击的野人1 小时前
MCP协议:让AI应用像插USB一样连接外部世界
人工智能·agent·mcp