PyTorch 模型保存与加载的三种常用方式

在深度学习的训练过程中,我们不可避免地要保存模型,这是一个非常好的习惯。接下来,文章将通过一个简单的神经网络模型,带你了解 PyTorch 中主要的模型保存与加载方式。

文章目录

为什么保存和加载模型很重要?

训练一个神经网络可能需要数小时甚至数天的时间,你需要认知到一点:时间是非常宝贵的,目前3090云服务器租赁一天的价格为 37.92 元。如果你的代码没有保存模型的模块,那就先不要开始,因为不保存基本等于没跑,你的效果再好也没有办法直接呈现给别人。如果你保存了模型,你就可以做到以下的事情:

  • 继续训练:通过保存检查点(checkpoint),你可以在意外中断后继续训练你的模型,这一点可能会节省你大量的时间。
  • 模型部署:训练好的模型可以被部署到生产环境中进行推理,比如 LLM,LoRA 等。
  • 分享模型:将训练好的模型分享给实验室其他成员或开源社区,以便进一步研究或复现结果。

代码示例

模型准备

为了演示,我们先定义一个简单的神经网络模型:

python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 128)  # 输入层到隐藏层
        self.fc2 = nn.Linear(128, 64)   # 隐藏层到隐藏层
        self.fc3 = nn.Linear(64, 10)    # 隐藏层到输出层

    def forward(self, x):
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

# 实例化模型和优化器
model = Net()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

方法一:保存和加载整个模型

保存模型

python 复制代码
torch.save(model, 'model.pth')

加载模型

python 复制代码
model = torch.load('model.pth')
print(model)

输出

Net(
  (fc1): Linear(in_features=784, out_features=128, bias=True)
  (fc2): Linear(in_features=128, out_features=64, bias=True)
  (fc3): Linear(in_features=64, out_features=10, bias=True)
)

这种方法非常简单直观,因为它保存了模型的整个结构和参数。

方法二:只保存模型的状态字典(state_dict)

保存模型状态字典

python 复制代码
torch.save(model.state_dict(), 'model_state_dict.pth')

加载模型状态字典

需要注意的是,加载state_dict时你需要手动重新实例化模型。

python 复制代码
model = Net()  # 你需要先定义好模型架构
model.load_state_dict(torch.load('model_state_dict.pth'))
print(model)

输出

Net(
  (fc1): Linear(in_features=784, out_features=128, bias=True)
  (fc2): Linear(in_features=128, out_features=64, bias=True)
  (fc3): Linear(in_features=64, out_features=10, bias=True)
)

与保存整个模型相比,保存 state_dict 更加灵活,它只包含模型的参数,而不依赖于完整的模型定义,这意味着你可以在不同的项目中加载模型参数,甚至只加载部分模型的权重。举个例子,对于分类模型,即便你保存的是完整的网络参数,也可以仅导入特征提取层部分,当然,直接导入完整模型再拆分实际上是一样的。对于不完全匹配的模型,加载时可以通过设置 strict=False 来忽略某些不匹配的键:

python 复制代码
model.load_state_dict(torch.load('model_state_dict.pth'), strict=False)

这样,你可以灵活地只加载模型的某些部分。

使用 strict=False 加载模型

假设我们在原来的 Net 模型中新增了一个全连接层(fc4),此时如果我们直接加载之前保存的 state_dict,会因为 state_dict 中没有 fc4 的权重信息而导致报错。

python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

# 修改后的模型,新增了一层 fc4
class ModifiedNet(nn.Module):
    def __init__(self):
        super(ModifiedNet, self).__init__()
        self.fc1 = nn.Linear(784, 128)
        self.fc2 = nn.Linear(128, 64)
        self.fc3 = nn.Linear(64, 10)
        self.fc4 = nn.Linear(10, 5)  # 新增的全连接层

    def forward(self, x):
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = F.relu(self.fc3(x))
        x = self.fc4(x)
        return x

# 实例化模型
modified_model = ModifiedNet()

# 尝试加载之前保存的 state_dict,但忽略不匹配的层
modified_model.load_state_dict(torch.load('model_state_dict.pth'), strict=False)

# 输出模型结构
print(modified_model)

输出

python 复制代码
ModifiedNet(
  (fc1): Linear(in_features=784, out_features=128, bias=True)
  (fc2): Linear(in_features=128, out_features=64, bias=True)
  (fc3): Linear(in_features=64, out_features=10, bias=True)
  (fc4): Linear(in_features=10, out_features=5, bias=True)
)

如果不设置 strict=False,将会报错,提示缺少 fc4 的权重:

python 复制代码
RuntimeError: Error(s) in loading state_dict for ModifiedNet: Missing key(s) in state_dict: "fc4.weight", "fc4.bias". 

注意,减少层也可以使用 strict=False。例如,如果修改后的网络只保留前两层,仍然可以成功加载原始的 state_dict,并跳过缺失的部分。

方法三:保存完整的训练状态(checkpoint)

有时候,你可能不仅仅需要保存模型参数,还需要保存训练进度,比如当前的轮数、优化器状态等。此时可以使用检查点保存更多信息。

保存检查点

python 复制代码
torch.save({
    'epoch': 100,
    'model_state_dict': model.state_dict(),
    'optimizer_state_dict': optimizer.state_dict(),
    'loss': 0.01,
}, 'checkpoint.pth')

加载检查点

python 复制代码
checkpoint = torch.load('checkpoint.pth')
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']
print(f"Epoch: {epoch}, Loss: {loss}")

输出:

python 复制代码
Epoch: 100, Loss: 0.01

这种方式适合长时间训练时,可以从中断的地方继续训练 。但文件体积相比前面会更大,具体原因见《7. 探究模型参数与显存的关系以及不同精度造成的影响》,加载过程也稍微复杂一些,我们可以写一个函数来打包这个过程。

定义 checkpont 保存和加载的函数

python 复制代码
def save_checkpoint(model, optimizer, epoch, loss, filepath='checkpoint.pth'):
    torch.save({
        'epoch': epoch,
        'model_state_dict': model.state_dict(),
        'optimizer_state_dict': optimizer.state_dict(),
        'loss': loss,
    }, filepath)

def load_checkpoint(filepath, model, optimizer):
    checkpoint = torch.load(filepath)
    model.load_state_dict(checkpoint['model_state_dict'])
    optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
    return checkpoint['epoch'], checkpoint['loss']

# 保存
save_checkpoint(model, optimizer, 100, 0.01)

# 加载
epoch, loss = load_checkpoint('checkpoint.pth', model, optimizer)
print(f"Loaded checkpoint at epoch {epoch} with loss {loss}")
相关推荐
我来试试3 分钟前
【分享】Pytorch数据结构:Tensor(张量)及其维度和数据类型
数据结构·人工智能·pytorch
Dack4665 分钟前
1.1、Python3基础语法
笔记·python
m0_7482400219 分钟前
Python毕业设计选题:基于协同过滤的动漫推荐系统设计与实现_django+hive+spider
python·django·课程设计
MUTA️25 分钟前
AutoDL服务器深度学习使用过程
服务器·人工智能·深度学习·计算机视觉
forestsea30 分钟前
【深度学习】Java DL4J基于 CNN 构建车辆识别与跟踪模型
java·人工智能·深度学习·cnn·deep learning
高锰酸钾_30 分钟前
Python数据可视化小项目
python·信息可视化·数据分析
martian66530 分钟前
【人工智能 数据结构与算法】——深入详解人工智能基础:基本数据结构及其实现与应用场景
数据结构·人工智能
油泼辣子多加1 小时前
2024年12月27日Github流行趋势
人工智能·github
m0_748235951 小时前
Python毕业设计选题:基于Hadoop 的国产电影数据分析与可视化_django+spider
hadoop·python·课程设计
测试者家园1 小时前
ChatGPT助力数据可视化与数据分析效率的提升(二)
软件测试·人工智能·信息可视化·chatgpt·数据分析·用chatgpt做软件测试·测试图书