腾讯混元OCR大模型,本地部署,实测

大家好,我是章北海

前文我升了 CUDA、部署了 DeepSeek-OCR
DeepSeek-OCR 本地部署(上):CUDA 升级 12.9,vLLM 升级至最新稳定版
DeepSeek-OCR 本地部署(下):vLLM 离线推理,API 重写,支持本地图片、PDF 解析

重写的 API 也支持 PaddleOCR-VL
本地部署 PaddleOCR,消费级显卡轻松跑,支持本地图片和 PDF 文件

然后腾讯也来了:大模型 OCR 的黄金时代,腾讯开源混元 OCR,文档解析、视觉问答和翻译方面达到 SOTA,文中我提到想等等看新版 vLLM 来了再部署

可是看到 N 多同学部署失败,还有 HunyuanOCR 到底需要多少显存可以跑起来有点疑问。

前文我就提到,可能是官方文档写反了现存和磁盘空间,当时写的是需要 80GB 显存

后来修改成了 20GB

官方文档将显存需求从 80GB 改成了 20GB,即便如此也有点离谱,毕竟只是 1B 的模型

安装及模型启动 - 官方教程

我没有使用官方教程,感觉。。。太麻烦了

1 是失败概率蛮高,依赖太多,安装环境不能用 pip,必须使用 uv

2 是我是在离线环境部署,所以下面方式对我无效

复制代码
  uv venv hunyuanocr
source hunyuanocr/bin/activate

uv pip install -U vllm --pre --extra-index-url https://wheels.vllm.ai/nightly

模型启动就简单了,只要前面 vLLM 安装顺利,下面就几乎不会出问题

出问题,大概率是 CUDA 版本太低造成的,建议 12.9 以上,毕竟未来 vLLM 0.11.1 之后版本默认就要 12.9 起步了

下载好 HunyuanOCR 模型文件后正常启动就行

复制代码
  # 模型启动-官方教程
vllm serve tencent/HunyuanOCR \
    --no-enable-prefix-caching \
    --mm-processor-cache-gb 0 \
    --gpu-memory-utilization 0.2

安装及模型启动 - 我的方式

最省心,省事儿,离线最友好的方式必须是 Docker

第一步,拉取 vllm/vllm-openai 官方镜像,选最近的一个 nightly 即可

复制代码
  docker pull vllm/vllm-openai:nightly

直达:https://hub.docker.com/r/vllm/vllm-openai/tags

第二步,保存镜像到内网,如果本机测试那就没这一步了

第三步,启动模型,核心参数和官方教程没啥区别

复制代码
  docker run --rm --runtime=nvidia --name Hunyuan-ocr --ipc=host --gpus '"device=1"' -p 5000:8000 -v /data/llm-models:/models vllm/vllm-openai:nightly
--model /models/HunyuanOCR --port 8000  --no-enable-prefix-caching --mm-processor-cache-gb 0 

我的显卡是 24GB 的 4090

模型只占 1.9GB,其他都是 KV cache 占用

我用了为 DeeoSeekOCR 写的 API,简单修改后依然很好用

速度飞快,5 页的 PDF 也是秒秒钟搞定

回到最开始问题,启动模型加上参数 --gpu-memory-utilization 0.66,也就是 16GB 启动模型,依然是 OK 的

而且速度丝毫没有下降

相关推荐
童园管理札记12 小时前
【续】数字时代:学前教育的新改革
经验分享·深度学习·职场和发展·微信公众平台
aseity13 小时前
跨平台项目中QString 与 非Qt 跨平台动态库在字符集上的一个实用的互操作约定.
c++·经验分享
童园管理札记15 小时前
数字时代:学前教育的新改革
经验分享·职场和发展·学习方法·微信公众平台
IT摆渡者16 小时前
linux 系统安全检查
运维·网络·经验分享·笔记
明天再做行么16 小时前
高考物理资源合集
经验分享
2501_9432050518 小时前
【185期】一键修改文件或文件夹时间属性
经验分享
cosinmz21 小时前
图片太多太乱怎么整理?分享一个我最近常用的图片转 PDF方法
经验分享·小程序·pdf
中屹指纹浏览器1 天前
2026浏览器多开环境深度优化:虚拟指纹一致性与风控协同优化方案
经验分享·笔记
我不是懒洋洋1 天前
手写一个B+树:从原理到数据库索引实战
c语言·c++·经验分享
智者知已应修善业1 天前
【用一片74LS139和一片74Ls00,设计带高电平有效使能输入端的3线-8线译码器】2023-10-16
驱动开发·经验分享·笔记·硬件架构·硬件工程