本地部署PaddleOCR,消费级显卡轻松跑,支持本地图片和PDF文件

大家好,我是 Ai 学习的老章

前文我在【教程】DeepSeek-OCR 本地部署(上):CUDA 升级 12.9,vLLM 升级至最新稳定版一文中提到,vLLM 0.11.2 稳定版原生支持 DeepSeek-OCR ,且兼容 OpenAI API 格式在线推理,操作更便捷。但 vLLM 0.11.1 及以上版本默认要求 CUDA 12.9,需先完成 CUDA 升级。完成升级后,我用最新版 vLLM 本地成功部署了 DeepSeek-OCR,用 Python 写了一个 api_server.py,使其更便捷滴支持本地图片和 PDF 文档

不过说实话,我测试了 N 多题目,DeepSeek-OCR 效果不如更小参数的 PaddleOCR-VL,本文我试了最新版vLLM本地部署显存占用更小的PaddleOCR,验证了api_server.py在简单修改模型名称后依然好用。

1、PaddleOCR 简介

PaddleOCR-VL 是一款面向文档解析的 SOTA 且资源高效的模型。其核心组件为 PaddleOCR-VL-0.9B------一个非常轻量级的视觉语言模型 (VLM),通过将 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型融合,实现精准的元素识别。

在页面级文档解析和元素级识别任务中,PaddleOCR - VL 都展现出了卓越的性能。在 OmniDocBench v1.5 和 v1.0 等广泛使用的公共基准测试中,该模型在整体、文本、公式、表格及阅读顺序等多项指标上均达到了最先进水平,大幅超越现有的基于管道的解决方案,与顶尖视觉语言模型相比也极具竞争力。这意味着无论是简单的文本提取,还是复杂的表格、公式、图表识别,PaddleOCR - VL 都能出色完成任务。

2、PaddleOCR 本地部署

1️⃣ 下载模型文件

复制代码
  pip install modelscope
modelscope download --model PaddlePaddle/PaddleOCR-VL  --local_dir ./PaddleOCR

2️⃣ vLLM Docker 部署 PaddleOCR

复制代码
  docker run -d --rm --runtime=nvidia --name paddle-ocr --ipc=host --gpus '"device=1"' -p 8000:8000 -v /data/llm-models:/models vllm/vllm-openai:v0.11.2 --model /models/PaddleOCR --max-num-batched-tokens 16384 --port 8000  --no-enable-prefix-caching --mm-processor-cache-gb 0 --trust_remote_code

#https://docs.vllm.ai/projects/recipes/en/latest/PaddlePaddle/PaddleOCR-VL.html

我用单卡 4090 跑,显存的占用只有 1.89GB,剩余空间留给了 KV cache

3、API 修改,运行

前文中的 api_server.py 仅需把 DeepSeekOCR 修改为 PaddleOCR 即可

一个新的终端 中,运行以下命令:

复制代码
  uvicorn api_server:app --host 0.0.0.0 --port 8002

调用方法重复一下

  • URL: /models/v1/models/deepseek-ocr/inference
  • 方法 (Method): POST
  • 内容类型 (Content-Type): multipart/form-data

表单数据参数:

参数 类型 是否必须 描述 默认值
file 文件 (File) 需要处理的 PDF (.pdf) 或图像 (.png, .jpg, .jpeg) 文件。 -
prompt 字符串 (String) 一个可选的文本提示,用于指导 OCR 模型的输出格式或焦点。 "Convert the document to markdown."
复制代码
  ## 示例 1: 处理 PDF 文件
curl -X POST "http://localhost:8002/models/v1/models/PaddleOCR/inference" \
     -F "file=@/path/to/your/report.pdf"

# 示例 2: 处理图像文件
curl -X POST "http://localhost:8002/models/v1/models/PaddleOCR/inference" \
     -F "file=@/path/to/your/receipt.png"


# 示例 3: 使用自定义提示处理文件
curl -X POST "http://localhost:8002/models/v1/models/PaddleOCR/inference" \
     -F "file=@/path/to/your/document.pdf" \
     -F "prompt=将此文档中的所有表格提取为 markdown 格式。"

速度也是超级快

一个强大的开源 OCR 工具,基于 DeepSeek OCR
DeepSeek-OCR 桌面客户端,Windows 用户优先体验

相关推荐
Metaphor6925 小时前
Java 添加、隐藏和删除 PowerPoint 幻灯片:自动化你的演示文稿
经验分享
苍何fly6 小时前
首个国产芯片训练的多模态 SOTA 模型,已免费开源!
人工智能·经验分享
联蔚盘云7 小时前
联蔚盘云-公有云安全运维方案研究
经验分享
源代码•宸11 小时前
Golang原理剖析(defer、defer面试与分析)
开发语言·经验分享·后端·面试·golang·defer·开放编码
Hanson8511 小时前
几何建模-低代码可视化建模技术
经验分享·开源·cad平台
乾复道11 小时前
巧用终端,每天节省2小时
汇编·经验分享·vim
字节跳动的猫11 小时前
2026四款AI 自动化测试省时间
经验分享
字节跳动的猫12 小时前
2026四款AI 插件开发简化指南
经验分享
yuhaiqun198913 小时前
SQL+VSCode实战指南:AI赋能高效数据库操作
数据库·人工智能·经验分享·vscode·sql·学习·学习方法
是做服装的同学13 小时前
服装管理系统ERP是什么?它的主要功能与优势有哪些?
大数据·经验分享·其他