探索DocLLM:摩根大通推出的新型文档处理语言模型

探索DocLLM:摩根大通推出的新型文档处理语言模型

摩根大通近日推出了一款名为DocLLM的新型语言模型,专为处理具有复杂布局的文档而设计。该模型是传统大型语言模型的轻量级版本,专注于理解丰富的文档内容。与使用昂贵的图像编码器的其他模型不同,DocLLM通过文本框的位置和大小(边界框信息)来理解页面上文本的布局,这使其在处理各种布局的文档时更为高效。

关键亮点:

  • DocLLM是标准大型语言模型的轻量级扩展,能够同时捕获空间布局和文本语义,而无需使用成本高昂的图像编码器。
  • DocLLM提供1B和7B两种规模的版本,能够在四个未见过的数据集中,相较于Llama2--7B模型,提升15%至61%的性能。
  • 在使用零样本指令的情况下,DocLLM-7B在16个数据集中的12个上超越了GPT-4和Llama2,特别擅长关键信息提取(KIE)和文档分类(CLS)任务。

技术特色:

  • DocLLM优化了对视觉文档分析的方法,通过仅依赖边界框数据整合空间布局,避免了昂贵的视觉编码器的使用,使模型更加紧凑,处理时间更高效。
  • 通过将标准变换器中的注意力机制重新配置为独立的矩阵,DocLLM能够在文本和空间布局之间建立独特的对齐,捕获这两个元素之间的依赖关系。
  • 开发了一种专注于填充文本段落的预训练目标,使模型能够有效处理视觉文档中常见的不规则布局和多样化内容。

应用范围:

  • DocLLM通过大规模指令数据集的细化预训练,覆盖了四个核心的文档智能任务:关键信息提取、自然语言推理、视觉问答和文档分类。
  • 在指令调优阶段,共使用了16个具有相应OCR数据的单页和多页文档数据集。

性能对比:

  • DocLLM在14个数据集中超越了当前最先进的语言模型,并且在五个先前未见过的数据集中表现良好。
  • 特别是,在不同数据集的不同切分(SDDS)设置中,DocLLM-7B在使用零样本指令的情况下,在12个数据集中超越了GPT-4和Llama2。

DocLLM通过其独特的设计和优化,为处理复杂布局的文档提供了一个高效且性能卓越的新选择,尤其在关键信息提取和文档分类任务上展现了其强大的能力。

相关推荐
云卓SKYDROID4 分钟前
无人机屏蔽与滤波技术模块运行方式概述!
人工智能·无人机·航电系统·科普·云卓科技
小oo呆15 分钟前
【自然语言处理与大模型】向量数据库技术
数据库·人工智能·自然语言处理
RuizhiHe16 分钟前
从零开始实现大语言模型(十五):并行计算与分布式机器学习
人工智能·chatgpt·llm·大语言模型·deepseek·从零开始实现大语言模型
水花花花花花19 分钟前
NLP基础
人工智能·自然语言处理
Tiny番茄20 分钟前
Text models —— BERT,RoBERTa, BERTweet,LLama
人工智能·自然语言处理·bert
苹果企业签名分发25 分钟前
火山引擎AI大模型
人工智能
久邦科技28 分钟前
《Deepseek从入门到精通》清华大学中文pdf完整版
人工智能·深度学习·机器学习
来自于狂人37 分钟前
给大模型“贴膏药”:LoRA微调原理说明书
人工智能·深度学习·transformer
love530love44 分钟前
【笔记】记一次PyCharm的问题反馈
ide·人工智能·windows·笔记·python·pycharm
说私域2 小时前
基于开源AI智能名片链动2+1模式S2B2C商城小程序源码的去中心化商业扩散研究
人工智能·小程序·开源·去中心化·零售