把PP-OCRv5_server模型转换为OpenVINO格式

PP-OCRv5_server 是 PaddleOCR(百度飞桨)在 PP-OCRv5 系列里偏"服务器端/高精度"定位的一套 OCR 模型组合,核心特点是:精度更高、模型更大、算力开销更高,更适合部署在 服务器、工作站 等资源相对充足的环境中,用于高质量文字识别任务。

  • PP-OCRv5_server_det:文本检测(从图片中找到文字区域)

  • PP-OCRv5_server_ rec:文本识别(对检测到的文字区域进行逐行识别,输出文字内容)

1、安装paddle2onnx:

bash 复制代码
pip install --pre paddlepaddle==3.0.0.dev20250428 -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/
pip install paddle2onnx 
# 安装openvino
pip install openvino

2、下载PP-OCRv5_server模型:

模型下载地址:

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_det

https://www.modelscope.cn/models/PaddlePaddle/PP-OCRv5_server_rec

3、模型转换:

Paddle → ONNX 转换

使用paddle2onnx将PP-OCRv5_server_det转换为onnx格式:

bash 复制代码
paddle2onnx --model_dir E:\BaiduNetdiskDownload\gameskill\models\PP-OCRv5_server_det --model_filename inference.json --params_filename inference.pdiparams --save_file model.onnx

转换完成后生成:model.onnx

ONNX → OpenVINO IR 转换

用 OpenVINO 的 ovc(OpenVINO Model Converter)把 ONNX 模型转换成 OpenVINO IR,输入形状动态高宽、开启 FP16 压缩、输出为指定文件名的 XML。

bash 复制代码
ovc ../model.onnx --input "x[1,3,-1,-1]" --compress_to_fp16 --output_model det_v5_model.xml

参数说明:

  • x[1,3,-1,-1]:表示输入为 NCHW,batch=1,3通道,H/W 动态

  • --compress_to_fp16:将权重压缩为 FP16,减小体积、提升某些设备性能

  • 输出为:det_v5_model.xml(同时生成同名 .bin)

相关推荐
墨染天姬2 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志2 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
2501_948114242 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠2 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光3 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好3 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型
智星云算力3 小时前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
jinanwuhuaguo3 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin
xiaozhazha_3 小时前
效率提升80%:2026年AI CRM与ERP深度集成的架构设计与实现
人工智能
枫叶林FYL3 小时前
【自然语言处理 NLP】7.2.2 安全性评估与Constitutional AI
人工智能·自然语言处理