Pytorch笔记一之 cpu模型保存、加载与推理

Pytorch笔记一之 cpu模型保存、加载与推理

1.保存模型

首先,在加载模型之前,我们需要了解如何保存模型。PyTorch 提供了两种保存模型的方法:保存整个模型和仅保存模型的状态字典(state dict)。推荐使用第二种方式,因为它更灵活且体积较小。

python 复制代码
import torch
import torch.nn as nn

# 定义一个简单的神经网络
class SimpleNN(nn.Module):
    def __init__(self):
        super(SimpleNN, self).__init__()
        self.fc = nn.Linear(10, 2)

    def forward(self, x):
        return self.fc(x)

# 实例化模型并进行训练
model = SimpleNN()
# 模型训练过程(省略)

# 保存模型的状态字典
torch.save(model.state_dict(), 'simple_nn.pth')

2. 加载模型

一旦你保存了模型,接下来就可以加载它。在加载过程中,确保模型的架构与训练时一致。以下是加载模型的步骤:

  • 1.创建一个模型实例
  • 2.调用 load_state_dict() 方法加载状态字典

代码示例如下:

python 复制代码
# 重新定义模型架构
model = SimpleNN()

# 加载模型状态字典
model.load_state_dict(torch.load('simple_nn.pth', map_location=torch.device('cpu')))

3. 在 CPU 上进行推理

完成模型加载后,接下来就可以使用模型进行推理。以下是一个简单的示例:

python 复制代码
# 模拟输入数据
input_data = torch.randn(1, 10)

# 在 CPU 上进行推理
with torch.no_grad():  # 禁用梯度计算,节省内存
    output = model(input_data)

print(output)
相关推荐
浪子小院10 分钟前
ModelEngine 智能体全流程开发实战:从 0 到 1 搭建多协作办公助手
大数据·人工智能
程序员打怪兽13 分钟前
详解YOLOv8网络结构
人工智能·深度学习
Yuer202513 分钟前
全国首例“AI 幻觉”侵权案判了:这不是 AI 准不准的问题,而是谁该为 AI 负责
人工智能·edca os·可控ai
三水不滴15 分钟前
计网ping原理
经验分享·笔记·计算机网络
一切尽在,你来29 分钟前
1.1 AI大模型应用开发和Langchain的关系
人工智能·langchain
prog_610331 分钟前
【笔记】思路分享:各种大模型免费当agent后台
笔记·大语言模型·agent·cursor
Coder_Boy_36 分钟前
基于Spring AI的分布式在线考试系统-事件处理架构实现方案
人工智能·spring boot·分布式·spring
凯尔萨厮1 小时前
Maven(Windows下载安装)
笔记·maven
wdfk_prog1 小时前
[Linux]学习笔记系列 -- [drivers][input]serio
linux·笔记·学习
Light601 小时前
智链未来:彭山物流园区从物理基建到数据智能体的全维度构建方案
人工智能·系统架构·数字孪生·智慧物流·实施路径·彭山项目