把PP-OCRv5_server模型转换为OpenVINO格式

PP-OCRv5_server 是 PaddleOCR(百度飞桨)在 PP-OCRv5 系列里偏"服务器端/高精度"定位的一套 OCR 模型组合,核心特点是:精度更高、模型更大、算力开销更高,更适合部署在 服务器、工作站 等资源相对充足的环境中,用于高质量文字识别任务。

  • PP-OCRv5_server_det:文本检测(从图片中找到文字区域)

  • PP-OCRv5_server_ rec:文本识别(对检测到的文字区域进行逐行识别,输出文字内容)

1、安装paddle2onnx:

bash 复制代码
pip install --pre paddlepaddle==3.0.0.dev20250428 -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/
pip install paddle2onnx 
# 安装openvino
pip install openvino

2、下载PP-OCRv5_server模型:

模型下载地址:

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_det

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_rec

3、模型转换:

Paddle → ONNX 转换

使用paddle2onnx将PP-OCRv5_server_det转换为onnx格式:

bash 复制代码
paddle2onnx --model_dir E:\BaiduNetdiskDownload\gameskill\models\PP-OCRv5_server_det --model_filename inference.json --params_filename inference.pdiparams --save_file model.onnx

转换完成后生成:model.onnx

ONNX → OpenVINO IR 转换

用 OpenVINO 的 ovc(OpenVINO Model Converter)把 ONNX 模型转换成 OpenVINO IR,输入形状动态高宽、开启 FP16 压缩、输出为指定文件名的 XML。

bash 复制代码
ovc ../model.onnx --input "x[1,3,-1,-1]" --compress_to_fp16 --output_model det_v5_model.xml

参数说明:

  • x[1,3,-1,-1]:表示输入为 NCHW,batch=1,3通道,H/W 动态

  • --compress_to_fp16:将权重压缩为 FP16,减小体积、提升某些设备性能

  • 输出为:det_v5_model.xml(同时生成同名 .bin)

相关推荐
兮℡檬,3 分钟前
银行卡卡号识别
人工智能·计算机视觉
海南java第二人4 分钟前
Cursor 高级实战:从 Spring Boot 到微服务,AI 驱动的全流程开发指南
人工智能·spring boot·微服务
码码哈哈0.08 分钟前
开源项目Heygem本地运行 AI 数字人模型
人工智能·ai
CertiK9 分钟前
CertiK实测:Skill扫描并非安全边界
人工智能·安全·openclaw
大傻^9 分钟前
Spring AI Alibaba 项目初始化:Maven依赖与YAML配置全解析
人工智能·spring·maven·springai·springaialibaba·评估框架
OpenCSG16 分钟前
GLM-OCR:轻量级多模态OCR的技术突破
人工智能
ofoxcoding19 分钟前
Qwen3.5 API 接入实测:和 GPT-4o 比到底差多少
人工智能·qwen3.5
摄影图21 分钟前
智能汽车领域应用图素材 汽车AI研发转型
人工智能·科技·aigc
一只落魄的蜂鸟28 分钟前
【2026年-11期】Where lies the future of humanity in the age of AI?
人工智能
IT阳晨。30 分钟前
PyTorch深度学习实践
人工智能·pytorch·深度学习