把PP-OCRv5_server模型转换为OpenVINO格式

PP-OCRv5_server 是 PaddleOCR(百度飞桨)在 PP-OCRv5 系列里偏"服务器端/高精度"定位的一套 OCR 模型组合,核心特点是:精度更高、模型更大、算力开销更高,更适合部署在 服务器、工作站 等资源相对充足的环境中,用于高质量文字识别任务。

  • PP-OCRv5_server_det:文本检测(从图片中找到文字区域)

  • PP-OCRv5_server_ rec:文本识别(对检测到的文字区域进行逐行识别,输出文字内容)

1、安装paddle2onnx:

bash 复制代码
pip install --pre paddlepaddle==3.0.0.dev20250428 -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/
pip install paddle2onnx 
# 安装openvino
pip install openvino

2、下载PP-OCRv5_server模型:

模型下载地址:

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_det

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_rec

3、模型转换:

Paddle → ONNX 转换

使用paddle2onnx将PP-OCRv5_server_det转换为onnx格式:

bash 复制代码
paddle2onnx --model_dir E:\BaiduNetdiskDownload\gameskill\models\PP-OCRv5_server_det --model_filename inference.json --params_filename inference.pdiparams --save_file model.onnx

转换完成后生成:model.onnx

ONNX → OpenVINO IR 转换

用 OpenVINO 的 ovc(OpenVINO Model Converter)把 ONNX 模型转换成 OpenVINO IR,输入形状动态高宽、开启 FP16 压缩、输出为指定文件名的 XML。

bash 复制代码
ovc ../model.onnx --input "x[1,3,-1,-1]" --compress_to_fp16 --output_model det_v5_model.xml

参数说明:

  • x[1,3,-1,-1]:表示输入为 NCHW,batch=1,3通道,H/W 动态

  • --compress_to_fp16:将权重压缩为 FP16,减小体积、提升某些设备性能

  • 输出为:det_v5_model.xml(同时生成同名 .bin)

相关推荐
冬奇Lab1 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab1 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP5 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年5 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼5 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS5 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区6 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈6 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang7 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx
shengjk18 小时前
NanoClaw 深度剖析:一个"AI 原生"架构的个人助手是如何运转的?
人工智能