Dolphin-v2:拍照论文也能实现精准解析

传送锚点

Dolphin-v2 是 ByteDance 最新发布的文档解析模型,有一个功能打破了我的惯性认知:它对拍照生成的文档,比数字文档更重视整体页面的结构。

这并不是偶然。多数模型处理拍照文档时容易受扭曲、光影干扰的影响,只能提取片段式信息。Dolphin-v2 采用了"拍照文档整体解析、数字文档并行元素解析"的双机制架构,这种区分式解析策略,反而让它在处理现实环境下的照片文档时显得更加鲁棒。

和前代模型有什么不同

Dolphin-v2 架构基于 Qwen2.5-VL-3B,是对初代 Dolphin 的完全重构。最核心升级是引入了可扩展 anchor prompting 机制,对每种文档元素使用定制 prompt,如 P_code 会保留缩进,P_formula 能生成合法 LaTeX 表达式,P_table 则输出 HTML 表格结构。

现在支持的元素类型扩展到了 21 种,从六层级标题、表格、公式,到页眉页脚、水印和注释,都能一一识别和结构化提取。更重要的是,所有元素都依托原始图像的像素坐标进行定位,避免了 OCR 层的额外误差。

性能表现

在 Benchmark OmniDocBench (v1.5) 上,Dolphin-v2 取得 89.45 的总分,比初代提升了近 15 分。文本识别的编辑距离低至 0.054,表格结构准确率超 87%,公式解析达到 86.72 CDM。

这类全面提升也意味着,在表格密集的财报、公式密集的论文,或者结构复杂的合同文件中,它都能提供高质量的解析结果。

为何值得关注

文档解析早已从"能读"进入"读得准、结构清晰"的阶段,而 Dolphin-v2 的双模解析架构恰好满足了这个方向。它的 anchor prompting 与类型感知模块,意味着文档不再是 OCR 后的碎片,而是语义完整的结构图。无论是 low-resource 环境下的移动拍照,还是高质量扫描件,Dolphin-v2 都保持一致的高精度输出。

可以在 GitHub 上获取更多信息:

GitHub链接:https://github.com/bytedance/Dolphin

它仍是 3B 参数规模,却能打出旗舰级水平,值得开发者一试。

相关推荐
风象南13 小时前
我把大脑开源给了AI
人工智能·后端
Johny_Zhao15 小时前
OpenClaw安装部署教程
linux·人工智能·ai·云计算·系统运维·openclaw
飞哥数智坊15 小时前
我帮你读《一人公司(OPC)发展研究》
人工智能
冬奇Lab19 小时前
OpenClaw 源码精读(3):Agent 执行引擎——AI 如何「思考」并与真实世界交互?
人工智能·aigc
没事勤琢磨21 小时前
如何让 OpenClaw 控制使用浏览器:让 AI 像真人一样操控你的浏览器
人工智能
用户51914958484521 小时前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
牛马摆渡人52821 小时前
OpenClaw实战--Day1: 本地化
人工智能
前端小豆21 小时前
玩转 OpenClaw:打造你的私有 AI 助手网关
人工智能
BugShare21 小时前
写一个你自己的Agent Skills
人工智能·程序员
机器之心21 小时前
英伟达护城河被AI攻破,字节清华CUDA Agent,让人人能搓CUDA内核
人工智能·openai