pytorch如何将bin格式模型导出pt格式模型?

PyTorch提供了两种导出模型的方法:

  1. 将模型保存为.pt文件

用以下代码读取bin模型文件

python 复制代码
# 获取模型
model = WhisperForConditionalGeneration.from_pretrained(args.model_path,
                                                        device_map="auto",
                                                        local_files_only=args.local_files_only).half()

可以使用以下函数将模型保存为.pt文件:

python 复制代码
torch.save(model.state_dict(), path_to_file)

其中,model是要保存的模型,state_dict()是将模型中所有参数的值保存为一个字典,path_to_file是保存路径和文件名。

  1. 将模型保存为ONNX格式

可以使用以下函数将PyTorch模型保存为ONNX格式:

torch.onnx.export(model, input, path_to_file)

其中,model是要保存的模型,input是一个PyTorch张量,用于指定输入张量的形状和数据类型,path_to_file是保存路径和文件名。该函数将自动将模型转换为ONNX格式并保存到本地文件中。

需要说明的是,保存为.ONNX格式的模型可以被其他深度学习框架加载和使用。

相关推荐
用户83562907805110 小时前
无需 Office:Python 批量转换 PPT 为图片
后端·python
markfeng812 小时前
Python+Django+H5+MySQL项目搭建
python·django
GinoWi12 小时前
Chapter 2 - Python中的变量和简单的数据类型
python
JordanHaidee12 小时前
Python 中 `if x:` 到底在判断什么?
后端·python
ServBay13 小时前
10分钟彻底终结冗长代码,Python f-string 让你重获编程自由
后端·python
闲云一鹤13 小时前
Python 入门(二)- 使用 FastAPI 快速生成后端 API 接口
python·fastapi
Rockbean14 小时前
用40行代码搭建自己的无服务器OCR
服务器·python·deepseek
曲幽15 小时前
FastAPI + Ollama 实战:搭一个能查天气的AI助手
python·ai·lora·torch·fastapi·web·model·ollama·weatherapi
用户606487671889616 小时前
国内开发者如何接入 Claude API?中转站方案实战指南(Python/Node.js 完整示例)
人工智能·python·api
只与明月听16 小时前
RAG深入学习之Chunk
前端·人工智能·python