pytorch持久化

在pytorch中以下对象可以持久化到硬盘,并能通过相应的方法加载到内存:Tensor、Variable、nn.Module、Optimizer

本质上上述信息最终都是保存成Tensor,Tensor的保存和加载是使用torch.savetorch.load完成的。在save、load时可以指定使用的pickle模块,在load时还可将GPU tensor映射到CPU或其它GPU上。

torch.savetorch.load

python 复制代码
import torch

# 1.变量的保存与加载
a = torch.Tensor(3,4)
print(a.get_device())  # -1,代表CPU
if torch.cuda.is_available():
    a = a.cuda()   # 把a转换为GPU0上的tensor
    torch.save(a, 'a.pth')

    # 加载为b,存储于GPU0上,因为保存时tensor就在GPU0上
    b = torch.load('a.pth')
    print(b.get_device())   # 0

    # 加载为d,存储于GPU0上
    c = torch.load('a.pth', map_location={'cuda:0':'cuda:0'})
    print(c.get_device())   # 0


    # 加载为c,存储于CPU上
    d = torch.load('a.pth', map_location=lambda storage, loc: storage)
    print(d.get_device())   # -1,代表CPU

    # 加载为d,存储于CPU上
    e = torch.load('a.pth', map_location={'cuda:0':'cpu'})
    print(e.get_device())   # -1,代表CPU


# 2.模型的保存与加载
from torchvision.models import resnet18
model = resnet18()
torch.save(model.state_dict(), 'resnet18.pth')
model.load_state_dict(torch.load('resnet18.pth'))

# 3.优化器的保存与加载
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
torch.save(optimizer.state_dict(), 'optimizer.pth')
optimizer.load_state_dict(torch.load('optimizer.pth'))

# 4.保存模型和优化器的所有参数
all_data = dict(optimizer=optimizer.state_dict(), model=model.state_dict(), info=u'模型和优化器的所有参数')
torch.save(all_data, 'all.pth')
all_data = torch.load('all.pth')
print(all_data.keys())
相关推荐
牛客企业服务5 分钟前
2025年AI面试推荐榜单,数字化招聘转型优选
人工智能·python·算法·面试·职场和发展·金融·求职招聘
视觉语言导航36 分钟前
RAL-2025 | 清华大学数字孪生驱动的机器人视觉导航!VR-Robo:面向视觉机器人导航与运动的现实-模拟-现实框架
人工智能·深度学习·机器人·具身智能
**梯度已爆炸**1 小时前
自然语言处理入门
人工智能·自然语言处理
ctrlworks1 小时前
楼宇自控核心功能:实时监控设备运行,快速诊断故障,赋能设备寿命延长
人工智能·ba系统厂商·楼宇自控系统厂家·ibms系统厂家·建筑管理系统厂家·能耗监测系统厂家
BFT白芙堂2 小时前
睿尔曼系列机器人——以创新驱动未来,重塑智能协作新生态(上)
人工智能·机器学习·机器人·协作机器人·复合机器人·睿尔曼机器人
aneasystone本尊2 小时前
使用 MCP 让 Claude Code 集成外部工具
人工智能
静心问道2 小时前
SEW:无监督预训练在语音识别中的性能-效率权衡
人工智能·语音识别
羊小猪~~2 小时前
【NLP入门系列五】中文文本分类案例
人工智能·深度学习·考研·机器学习·自然语言处理·分类·数据挖掘
xwz小王子2 小时前
从LLM到WM:大语言模型如何进化成具身世界模型?
人工智能·语言模型·自然语言处理
我爱一条柴ya2 小时前
【AI大模型】深入理解 Transformer 架构:自然语言处理的革命引擎
人工智能·ai·ai作画·ai编程·ai写作