DeepSeek刚刚开源了一个3B的 OCR模型:什么是DeepSeek-OCR?单张A100-40G每天可以处理20万+页文档

DeepSeek刚刚开源了一个3B的 OCR模型:什么是DeepSeek-OCR?单张A100-40G每天可以处理20万+页文档

有这么小的开源模型,却没有一个可以用来评测体验的算力显卡怎么办?

------本文教你白嫖云GPU,不用买卡也能跑。

📌 优质平台:https://gpu.spacehpc.com/user/register?inviteCode=52872508


DeepSeek 再开源:发布 3B MoE OCR 模型,视觉压缩高达20倍

强!DeepSeek刚刚放出了一个3B OCR模型:DeepSeek-OCR,单张A100-40G每天可以处理20万+页文档。

这不是传统OCR,而是把整页图像压缩进LLM上下文 ,让大模型像"看懂"文档一样处理PDF、PPT、书籍结构化信息、图表等等------等于是把整幅图=几千字的视觉token塞入Transformer上下文。


为什么这个模型重要?

传统OCR只能做"识别",而DeepSeek-OCR做的是视觉压缩 + 上下文语义理解,可以被看作视觉版RAG的上游处理器:

能力 优势
压缩 一张图压缩成64--128个视觉token
速度 单A100 40G → 20万页/天
精度 10倍压缩仍可达97%
弹性 20倍压缩仍保持60% 可读性
输入 支持 512~1280 可变扫描分辨率
功能 通用OCR / 图表解析 / 文档结构化 / Markdown生成 / REC定位

对于版式简单的书籍、PPT,64或100个视觉Token就能达到非常高精度


支持能力

  • ✅ 文档结构转换(PDF → Markdown/HTML)
  • ✅ 图表理解(OneChart类似能力)
  • ✅ 文本定位(REC)
  • ✅ 表格抽取
  • ✅ 多语言OCR
  • ✅ 动态分辨率(Gundam模式)
  • ✅ GPU记忆友好:小显存也能跑

开源地址(仓库/模型)

资源 链接
GitHub https://github.com/deepseek-ai/DeepSeek-OCR
HuggingFace https://huggingface.co/deepseek-ai/DeepSeek-OCR

模型安装 & 推理(Huggingface Transformers)

Requirements(python 3.12.9 + CUDA 11.8):

复制代码
torch==2.6.0
transformers==4.46.3
tokenizers==0.20.3
einops
addict 
easydict
pip install flash-attn==2.7.3 --no-build-isolation

推理Demo

python 复制代码
from transformers import AutoModel, AutoTokenizer
import torch
import os
os.environ["CUDA_VISIBLE_DEVICES"] = '0'
model_name = 'deepseek-ai/DeepSeek-OCR'

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModel.from_pretrained(model_name, _attn_implementation='flash_attention_2', trust_remote_code=True, use_safetensors=True)
model = model.eval().cuda().to(torch.bfloat16)

prompt = "<image>\n<|grounding|>Convert the document to markdown. "
image_file = 'your_image.jpg'
output_path = 'your/output/dir'

res = model.infer(tokenizer, prompt=prompt, image_file=image_file,
                  output_path = output_path,
                  base_size = 1024, image_size = 640,
                  crop_mode=True, save_results = True, test_compress = True)

模式说明:

模式 base_size image_size crop_mode
Tiny 512 512
Small 640 640
Base 1024 1024
Large 1280 1280
Gundam 1024 640

Visualizations(效果展示)





没显卡怎么白嫖体验?(重点)

可以直接上云平台:

📌 推荐平台:
https://gpu.spacehpc.com/user/register?inviteCode=52872508

支持免费A100/4090等卡,足够测试DeepSeek-OCR。

修改输出路径即可:


结语:这是视觉RAG的新基座模型

DeepSeek-OCR的出现不是"又一个OCR",而是朝着Vision-to-Context迈出的关键一步。

不输出文本流,而是输出可以直接输入LLM的"上下文视觉Token",这意味着:

未来的大模型将具备真正的视觉理解与文档逻辑阅读能力

下一步我们只需要把DeepSeek-OCR前置,再接上LLM(DeepSeek-V3 / Qwen2.5 / GLM等),就能做PDF端到端问答 / 复杂表格抽取 / 具备文档连续语义的RAG系统


相关推荐
TMT星球3 小时前
TCL华星t8项目正式开工,总投资额约295亿元
大数据·人工智能
lky不吃香菜3 小时前
上下文工程的艺术与科学:来自 LangChain 和 Manus 的前沿洞察
人工智能
香菜烤面包3 小时前
Attention:MHA->MQA->GQA->MLA
人工智能·深度学习
阿里云大数据AI技术3 小时前
云栖实录 | 驶入智驾深水区:广汽的“数据突围“之路
大数据·人工智能
肥晨3 小时前
OCR 模型受全球关注,实测到底谁更出色?
人工智能·ai编程
景天科技苑3 小时前
【AI智能体开发】什么是LLM?如何在本地搭建属于自己的Ai智能体?
人工智能·llm·agent·智能体·ai智能体·ollama·智能体搭建
skywalk81633 小时前
用Trae自动生成一个围棋小程序
人工智能·小程序
nju_spy3 小时前
牛客网 AI题(一)机器学习 + 深度学习
人工智能·深度学习·机器学习·lstm·笔试·损失函数·自注意力机制
千桐科技3 小时前
qKnow 知识平台【开源版】安装与部署全指南
人工智能·后端