把PP-OCRv5_server模型转换为OpenVINO格式

PP-OCRv5_server 是 PaddleOCR(百度飞桨)在 PP-OCRv5 系列里偏"服务器端/高精度"定位的一套 OCR 模型组合,核心特点是:精度更高、模型更大、算力开销更高,更适合部署在 服务器、工作站 等资源相对充足的环境中,用于高质量文字识别任务。

  • PP-OCRv5_server_det:文本检测(从图片中找到文字区域)

  • PP-OCRv5_server_ rec:文本识别(对检测到的文字区域进行逐行识别,输出文字内容)

1、安装paddle2onnx:

bash 复制代码
pip install --pre paddlepaddle==3.0.0.dev20250428 -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/
pip install paddle2onnx 
# 安装openvino
pip install openvino

2、下载PP-OCRv5_server模型:

模型下载地址:

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_det

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_rec

3、模型转换:

Paddle → ONNX 转换

使用paddle2onnx将PP-OCRv5_server_det转换为onnx格式:

bash 复制代码
paddle2onnx --model_dir E:\BaiduNetdiskDownload\gameskill\models\PP-OCRv5_server_det --model_filename inference.json --params_filename inference.pdiparams --save_file model.onnx

转换完成后生成:model.onnx

ONNX → OpenVINO IR 转换

用 OpenVINO 的 ovc(OpenVINO Model Converter)把 ONNX 模型转换成 OpenVINO IR,输入形状动态高宽、开启 FP16 压缩、输出为指定文件名的 XML。

bash 复制代码
ovc ../model.onnx --input "x[1,3,-1,-1]" --compress_to_fp16 --output_model det_v5_model.xml

参数说明:

  • x[1,3,-1,-1]:表示输入为 NCHW,batch=1,3通道,H/W 动态

  • --compress_to_fp16:将权重压缩为 FP16,减小体积、提升某些设备性能

  • 输出为:det_v5_model.xml(同时生成同名 .bin)

相关推荐
方见华Richard2 小时前
《认知纪元宪章》V1.0-人类智能与人工智能联合签署
人工智能·经验分享·交互·原型模式·空间计算
财经科技2 小时前
安全测试观察:某类AI智能反诈通信业务的运行特征与潜在风险
大数据·人工智能·物联网
速易达网络2 小时前
AI发展全景:从模型到硬件的多层演进
人工智能
Jouham2 小时前
瞬维智能CEO刘哲先生受邀参加2025年火山引擎FORCE原动力大会
人工智能·火山引擎
kissgoodbye20122 小时前
发论文目标期刊
人工智能
Ro Jace2 小时前
AI全科研流程辅助:以信号处理领域为例
人工智能·信号处理
星爷AG I2 小时前
9-5 频率感知(AGI基础理论)
人工智能·agi
黄小耶@2 小时前
基于 LSTM 的电商评论情感分析模型
人工智能·rnn·lstm
人工智能AI技术2 小时前
【Agent从入门到实践】26 使用Chroma搭建本地向量库,实现Agent的短期记忆
人工智能·python