pytorch持久化

在pytorch中以下对象可以持久化到硬盘,并能通过相应的方法加载到内存:Tensor、Variable、nn.Module、Optimizer

本质上上述信息最终都是保存成Tensor,Tensor的保存和加载是使用torch.savetorch.load完成的。在save、load时可以指定使用的pickle模块,在load时还可将GPU tensor映射到CPU或其它GPU上。

torch.savetorch.load

python 复制代码
import torch

# 1.变量的保存与加载
a = torch.Tensor(3,4)
print(a.get_device())  # -1,代表CPU
if torch.cuda.is_available():
    a = a.cuda()   # 把a转换为GPU0上的tensor
    torch.save(a, 'a.pth')

    # 加载为b,存储于GPU0上,因为保存时tensor就在GPU0上
    b = torch.load('a.pth')
    print(b.get_device())   # 0

    # 加载为d,存储于GPU0上
    c = torch.load('a.pth', map_location={'cuda:0':'cuda:0'})
    print(c.get_device())   # 0


    # 加载为c,存储于CPU上
    d = torch.load('a.pth', map_location=lambda storage, loc: storage)
    print(d.get_device())   # -1,代表CPU

    # 加载为d,存储于CPU上
    e = torch.load('a.pth', map_location={'cuda:0':'cpu'})
    print(e.get_device())   # -1,代表CPU


# 2.模型的保存与加载
from torchvision.models import resnet18
model = resnet18()
torch.save(model.state_dict(), 'resnet18.pth')
model.load_state_dict(torch.load('resnet18.pth'))

# 3.优化器的保存与加载
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
torch.save(optimizer.state_dict(), 'optimizer.pth')
optimizer.load_state_dict(torch.load('optimizer.pth'))

# 4.保存模型和优化器的所有参数
all_data = dict(optimizer=optimizer.state_dict(), model=model.state_dict(), info=u'模型和优化器的所有参数')
torch.save(all_data, 'all.pth')
all_data = torch.load('all.pth')
print(all_data.keys())
相关推荐
Agent手记9 小时前
工厂货物智能入库全流程自动化:基于实在Agent与ISSUT技术的2026工业自动化实战指南
运维·人工智能·ai·自动化
五月底_9 小时前
Transformer
人工智能·深度学习
舞影天上9 小时前
我用 Docker 自托管了 AI 记忆系统,踩了 5 个坑全记录
人工智能
无心水9 小时前
【Hermes:安全、权限与生产环境】39、智能体也会犯错?Hermes 纠错、回滚与遗忘机制全指南 —— 让 AI 的错误像 Git 一样可逆可控
人工智能·git·安全·mcp协议·openclaw·hermes·honcho
小白编程锤炼10 小时前
深入解析:质量门禁
人工智能·算法·架构·vibe-coding
Ares-Wang10 小时前
AI》》 监督学习,无监督学习,半监督学习、强化学习 、深度学习 统计学的常用方法
人工智能·深度学习·学习
江瀚视野10 小时前
DeepWay深向盈利拐点趋近意味着什么?
大数据·人工智能
爱学习的张大10 小时前
KG与LLM:大模型时代的智能规划
人工智能
三维重建-光栅投影10 小时前
线性代数之超定方程使用最小二乘求解
人工智能·线性代数
老码观察10 小时前
数环通iPaaS知识库选型实践:从技术评估到RAGFlow深度调优
人工智能·agent·知识库