51c视觉~OCR~合集2

我自己的原文哦~ https://blog.51cto.com/whaosoft143/14456574

一、xxx

....

二、xxx

....

三、LightOnOCR

OCR迎来"闪电时刻":LightOnOCR-2以1B模型击败9B竞品,开源即达SOTA!

最近,LightOn 在文档理解领域推出了名为 LightOnOCR-2-1B 的全新模型。这个模型仅用10亿的参数量,就在权威的 OCR 评测基准 OlmOCR-Bench 上取得了当前最佳成绩(SOTA),把一众参数量大它9倍的巨无霸模型甩在了身后。

对开发者来说,好消息是,LightOnOCR-2 已经全面开源,相关的模型、代码、数据集都已上线 Hugging Face,这无疑又为社区贡献了一个强大又高效的生产力工具。

告别脆弱的"积木塔":为什么我们需要端到端OCR?

聊到 LightOnOCR-2 之前,我们得先看看传统OCR技术遇到了什么瓶颈。

长久以来,文档处理就像搭建一个复杂的"积木塔"。我们需要先用一个工具做版面分析,判断哪里是标题、哪里是段落、哪里是表格;再用另一个工具去检测文字的具体位置;然后才是文字识别;最后可能还需要一个模块来恢复正确的阅读顺序。这个过程被称为"多阶段OCR流程"(multi-stage OCR pipelines)。

这种方法的缺点显而易见:

  1. 脆弱:任何一个环节出错,都会影响最终结果。
  2. 昂贵:维护和升级这样一套复杂的系统成本高昂。
  3. 僵化:想让它适应一种新的文档风格(比如一种新的发票版式),往往需要对多个模块进行调整和重新训练,费时费力。

而以 LightOnOCR-2 为代表的 端到端(End-to-End)模型,像一个聪明的"全能专家",直接从原始的文档图片(输入),一步到位地生成结构清晰、顺序正确的文本内容(输出),中间过程全部由模型自己搞定。这种"大力出奇迹"的方式不仅简化了工程,也让模型的优化和迭代变得简单。

1B如何胜过9B?LightOnOCR-2的核心秘籍

LightOnOCR-2 模型可以用"小而美"来形容。

强强联合的模型架构

LightOnOCR-2 的根基是一个经典的"编码器-解码器"架构,但它的组件包括:

  • 视觉编码器 (Vision Encoder) :采用了 ​Mistral-Small-3.1​ 的预训练权重。这是一个原生支持高分辨率的ViT,能很好地捕捉文档中微小的排版细节,对各种奇形怪状的文档比例都有很好的适应性。
  • 语言解码器 (Language Model Decoder) :初始化自 ​Qwen3​ 模型。它负责将视觉信息翻译成通顺且结构化的文本。
  • 多模态投影器 (Multimodal Projector):一个简单的双层MLP,作为桥梁,高效地将视觉特征传递给语言解码器。

这种组合拳,相当于站在了巨人的肩膀上,让模型从一开始就具备了强大的视觉理解和语言生成能力。

不止于OCR:新增图像边界框检测

这是 LightOnOCR-2 的一大亮点。除了转录文字,它还能在生成的文本中,用类似 Markdown 的语法 ​​![image](image_N.png)​​ 标记出文档里图片的位置,并给出其精确的 边界框坐标(bounding boxes)

上图就是一个很好的例子,左边是原始文档页,右边是模型生成的转录文本渲染后的效果,它不仅识别了所有文字,还准确地"框"出了图片的位置,并将其裁剪了出来。

为了实现这个功能,研究者们在预训练中引入了坐标监督,并利用 基于IoU奖励的强化学习(RLVR) 对定位能力进行了精细打磨,让模型学会了"指哪打哪"。

"模型合并之道":任务算术合并

同时做好OCR和图像定位,有时会顾此失彼。为了解决这个问题,研究者用上了一种名为 "任务算术合并"(Task-Arithmetic Merging) 的技术。

简单来说,他们分别训练了一个专注于OCR的"专家模型"和一个专注于Bbox检测的"专家模型",然后通过一个简单的线性公式,将两个模型的权重进行"插值融合"。

如上图所示,通过调整混合比例 α,开发者可以自由地在OCR精度和Bbox检测精度之间找到最佳平衡点,甚至创造出一个"双优"的融合模型,整个过程无需额外训练,成本极低。

惊人的性能与效率

LightOnOCR-2 的实验结果相当能打。

OlmOCR-Bench 基准上,LightOnOCR-2-1B 的最终得分达到了 83.2,超过了此前最强的9B参数模型 Chandra(81.7分),成为了新的榜单冠军。

效率方面在单张NVIDIA H100 GPU上,LightOnOCR-2 的推理速度 5.71页/秒,是8B参数的 olmOCR-2 的近1.7倍,是9B参数的 Chandra 的3.3倍以上。

论文展示了无论是处理包含复杂公式的科学论文、版式刁钻的多栏文档,还是陈旧发黄的扫描件,LightOnOCR-2 都表现出了卓越的性能和鲁棒性。

对科学文献的精准识别

轻松应对复杂表格

在老旧扫描件上依然稳健

写在最后

LightOnOCR 出自一家法国公司 LightOn,目前该模型对中日韩等非拉丁语系文字和手写体的支持还有待提高。但其设计思想值得参考。

....

相关推荐
两只羊几秒前
折腾 OpenClaw:从零开始在 Ubuntu 上部署并搞定局域网访问
人工智能
大傻^4 分钟前
SpringAI2.0 Null Safety 实战:JSpecify 注解体系与 Kotlin 互操作
android·开发语言·人工智能·kotlin·springai
蓝队云计算4 分钟前
蓝队云揭秘:如何利用云服务器高效养殖龙虾OpenClaw?
运维·服务器·人工智能·云服务器·openclaw
JicasdC123asd6 分钟前
密集连接瓶颈模块改进YOLOv26特征复用与梯度流动双重优化
人工智能·yolo·目标跟踪
sz-lcw6 分钟前
HOG特征向量计算方法
人工智能·python·算法
前进的李工31 分钟前
LangChain使用之Model IO(提示词模版之ChatPromptTemplate)
java·前端·人工智能·python·langchain·大模型
AIArchivist31 分钟前
深度解析|超级AI医院:不止是概念,更是医疗未来的确定性方向
人工智能·健康医疗
华农DrLai34 分钟前
什么是角色扮演Prompt?为什么给AI设定身份能提升表现?
人工智能·深度学习·ai·prompt·bert·transformer
大傻^35 分钟前
SpringAI2.0 向量存储生态:Redis、Amazon S3 与 Bedrock Knowledge Base 集成
数据库·人工智能·向量存储·springai
咋个办呢39 分钟前
AI智能体自学打卡:一份非常全的 Markdown Prompt 模板(可做减法)
人工智能·ai·prompt·智能体