把PP-OCRv5_server模型转换为OpenVINO格式

PP-OCRv5_server 是 PaddleOCR(百度飞桨)在 PP-OCRv5 系列里偏"服务器端/高精度"定位的一套 OCR 模型组合,核心特点是:精度更高、模型更大、算力开销更高,更适合部署在 服务器、工作站 等资源相对充足的环境中,用于高质量文字识别任务。

  • PP-OCRv5_server_det:文本检测(从图片中找到文字区域)

  • PP-OCRv5_server_ rec:文本识别(对检测到的文字区域进行逐行识别,输出文字内容)

1、安装paddle2onnx:

bash 复制代码
pip install --pre paddlepaddle==3.0.0.dev20250428 -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/
pip install paddle2onnx 
# 安装openvino
pip install openvino

2、下载PP-OCRv5_server模型:

模型下载地址:

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_det

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_rec

3、模型转换:

Paddle → ONNX 转换

使用paddle2onnx将PP-OCRv5_server_det转换为onnx格式:

bash 复制代码
paddle2onnx --model_dir E:\BaiduNetdiskDownload\gameskill\models\PP-OCRv5_server_det --model_filename inference.json --params_filename inference.pdiparams --save_file model.onnx

转换完成后生成:model.onnx

ONNX → OpenVINO IR 转换

用 OpenVINO 的 ovc(OpenVINO Model Converter)把 ONNX 模型转换成 OpenVINO IR,输入形状动态高宽、开启 FP16 压缩、输出为指定文件名的 XML。

bash 复制代码
ovc ../model.onnx --input "x[1,3,-1,-1]" --compress_to_fp16 --output_model det_v5_model.xml

参数说明:

  • x[1,3,-1,-1]:表示输入为 NCHW,batch=1,3通道,H/W 动态

  • --compress_to_fp16:将权重压缩为 FP16,减小体积、提升某些设备性能

  • 输出为:det_v5_model.xml(同时生成同名 .bin)

相关推荐
XD74297163611 小时前
科技晚报|2026年4月30日:财报日拉高 AI 投入,OpenAI 扩大政府与算力版图
大数据·人工智能·科技·科技新闻·科技晚报
xiangzhihong811 小时前
Claude Code 系列教程之Agent Skills
人工智能
水如烟11 小时前
孤能子视角:跨域联接之异质大模型同构验证“避坑六原则“
人工智能
skilllite作者11 小时前
LangChain-SkillLite 快速入门
网络·人工智能·安全·langchain·openclaw·agentskills
申耀的科技观察11 小时前
【观察】神州数码郭为:AI for Process不止于“AI+”,而是“AI次方”的系统性变革
人工智能
qcx2311 小时前
Warp源码深度解析(三):Block-Based终端引擎——Grid模型、PTY与Shell Integration
人工智能·设计模式·架构·wrap
谁似人间西林客11 小时前
工业AI选型指南:从数据标准化到智能体落地
人工智能
SENKS_DIGITAL11 小时前
5G数字展厅的空间叙事与关键技术演绎-森克思科技
人工智能·科技·5g·设计·艺术·展厅设计·展览设计
济61712 小时前
Ai智能体专栏---从零搭建完全本地、无依赖、可离线的个人知识库---Ollama+RAGFlow 保姆级教程
人工智能·ai·智能体
yongyoudayee12 小时前
AI原生 vs +AI:从技术架构看企业SaaS的未来路径
人工智能·架构·ai-native