多模态-10 Qwen-VL

这篇文章开始介绍千问系列的VL多模态模型,包括Qwen-VL、Qwen2-VL、Qwen2.5-VL、Qwen3-VL

Transformer介绍可以看:深度学习基础-5 注意力机制和Transformer

多模态基础知识点可以看:多模态-1 基础理论

Qwen-VL原论文:《Qwen-VL: A Versatile Vision-Language Model for Understanding, Localization, Text Reading, and Beyond》

Qwen-VL采取的也是类似BLIP2的适配器方法(BLIP2详细介绍可以看:多模态-5 BLIP2),在图像编码器和语言大模型(LLM)之间插入一个适配器,对齐图像特征、文本特征的语义,但是Qwen-VL在自己的训练数据集上分阶段的重新训练了图像编码器和语言大模型,而BLIP2只训练适配器Q-Former。

以往的VL模型一般都是面向英文的,Qwen-VL支持中英双语,中文友好,而且除了支持图像理解、问答任务外,还支持Grounding任务(多模态模型的Grounding任务介绍可以看:多模态-7 Grounding DINO)、OCR文本提取,在多个公开评测数据集上,达到了当时最优的开源模型效果。

一 模型结构

模型结构如下:

整体由以下三个组件构成:

1)图像编码器:Vision Encoder,论文中使用的是ViT结构,ViT的详细介绍可以看:计算机视觉Transformer-1 基础结构

2)视觉-语言特征适配器:VL Adapter,cross attention层,负责从图像编码器输出结果中提取和文本最相关的视觉特征,将视觉特征转换为语言大模型可以理解的特征(语义对齐)

3)语言大模型:LLM,论文中使用的是Qwen 7B

而且ViT输出的图像特征编码序列长度过大,会增加整体模型的计算负担

VL Adapter由交叉注意力层(cross attention)+位置编码构成

为了统一处理图像编码器输出的图像特征编码表示和文本特征编码表示,Qwen-VL在图像特征编码表示的前后添加了[img][/img]标记,用于标记一个图像特征编码表示的开始和结束,[img]类似于BERT中的[cls]标记符号,但是二者存在一些区别

img\] 是一个"名义上可学习、实际上被忽略"的占位符向量,不参与训练,随机初始化成什么值都没有关系,它的主要作用就是标记图像特征编码表示的起止,可以自然的将图像编码特征引入到以往语言模型输入处理的流程中。 类似\[img\]标签,为了让Qwen-VL具备Grounding的能力,需要将物体的bounding box也引入进来,Qwen-VL利用\[box\]\[/box\]符号标记一个bounding box的起止,并且对物体的坐标值进行了转换,将坐标值转换到\[0,1000\]范围内 ![图片](https://i-blog.csdnimg.cn/img_convert/d001eef869144ad688cf2664ca72107b.png) 需要注意\[box\]标记是一个随模型训练可学习的向量 ![图片](https://i-blog.csdnimg.cn/img_convert/13a82f4746b303ef3993c34d912c3f69.png) ![图片](https://i-blog.csdnimg.cn/img_convert/97d510d95d7733c519390fd4c43be750.png) ![图片](https://i-blog.csdnimg.cn/img_convert/7de5fa735b472da21158d8acd11040bb.png) ![图片](https://i-blog.csdnimg.cn/img_convert/1da95393480952b5ebf1f32c9336d2f8.png) 为了让Qwen-VL能建立起bounding box和对应图像区域的关联,引入了\[ref\]\[/ref\]符号表示,简单理解就是告诉模型bounding box区域对应的内容是什么 ![图片](https://i-blog.csdnimg.cn/img_convert/76c534d3e12d062217933c00e948c55a.png) ![图片](https://i-blog.csdnimg.cn/img_convert/77845d8b85d07f81b7afdcdde1e8b381.png) 一个完整结合\[img\]、\[box\]、\[ref\]三者的训练数据如下: ![图片](https://i-blog.csdnimg.cn/img_convert/c4020e81da346bdebc8f3bbe59d48018.png) ![图片](https://i-blog.csdnimg.cn/img_convert/84af30a3b65d6a1ec426dfc85001ffe7.png) ![图片](https://i-blog.csdnimg.cn/img_convert/d020c7dfc1c348bc7b39ea606984ac74.png) \[ref\]标记在 Qwen-VL 中是一个纯粹的、结构性的文本标记。它与 \[box\]标记成对出现,共同构成一种"富文本"格式,用于在训练数据和模型输出中,显式、无歧义地将一段文本描述与其在图像中的空间位置(bounding box)绑定到一起。在训练时它教会模型"当看到\X\\Y\时,X描述的就是Y这个框里的东西",在推理时它允许模型以同样结构化的格式回答问题,从而下游应用可根据这些标记符号进行精确的解析和可视化。 ## 二 训练 ![图片](https://i-blog.csdnimg.cn/img_convert/b40abb2267c86702f71157011390545a.png) ![图片](https://i-blog.csdnimg.cn/img_convert/ed11e824523f6bd29be6c0c432419ff3.png) ![图片](https://i-blog.csdnimg.cn/img_convert/978de7ff3535b7d1a5bcca6a1c753e32.png) ![图片](https://i-blog.csdnimg.cn/img_convert/c47d4c9b417820195a7ce7c218f57b78.png) ![图片](https://i-blog.csdnimg.cn/img_convert/ecb19edb9b17760df039660eddc088be.png) ![图片](https://i-blog.csdnimg.cn/img_convert/ae1dc4760ba62a2ef2b0b0d7cdcec29d.png) Qwen-VL的训练整体分为三个阶段: 1)Pre-training:预训练,学习通用的图像-文本语义对齐,冻结 LLM,只训练 ViT 和 VL Adapter 2)Multi-task Pre-training:多任务预训练,学习细粒度的视觉理解(OCR、定位),解冻 LLM,使用高分辨率输入,7个VL任务联合训练 3)Supervised Fine-tuning:监督微调,学习指令遵循和对话能力,使用对话数据,冻结 ViT,只训练 LLM 和 Adapter ![图片](https://i-blog.csdnimg.cn/img_convert/842bcfa4daf753d0168732e10613b82d.png) ### 2.1 Pre-training ![图片](https://i-blog.csdnimg.cn/img_convert/eab497c3f20997e34302b356381e90ca.png) ![图片](https://i-blog.csdnimg.cn/img_convert/e19b359e425558a79654eb7f90b4d147.png) ### 2.2 Multi-task Pre-training ![图片](https://i-blog.csdnimg.cn/img_convert/8ec9665f3c62f4b766a409fbcd8f801f.png) ![图片](https://i-blog.csdnimg.cn/img_convert/3df5eff119b7c0429a01d9aa1372a6c3.png) ![图片](https://i-blog.csdnimg.cn/img_convert/41b3aebdd97b55bdb84ce17e1e059d60.png) ![图片](https://i-blog.csdnimg.cn/img_convert/e0b7c71d0979d50139c516c640ca783c.png) ![图片](https://i-blog.csdnimg.cn/img_convert/c9d30ce4fd558d9684c1d5502863cb38.png) ### 2.3 Supervised Fine-tuning ![图片](https://i-blog.csdnimg.cn/img_convert/4bf4a643924f232d6c5d2a8308941e32.png) ![图片](https://i-blog.csdnimg.cn/img_convert/cef2bfc3704b1428ddf05fabf085b179.png) ### 2.4 训练细节 ![图片](https://i-blog.csdnimg.cn/img_convert/f78d23742d2edd86a68a83de8c55b6f2.png) ![图片](https://i-blog.csdnimg.cn/img_convert/61130b024bd85b8a6744e71f7793efcd.png) ## 三 数据集构建 ### 3.1 数据处理 #### 3.1.1 图文数据处理 ![图片](https://i-blog.csdnimg.cn/img_convert/dbdb1dd949b6f022ad2a9b1ccde294cf.png) ![图片](https://i-blog.csdnimg.cn/img_convert/b360b0e5dac181fa08e9cc2fae02d7a4.png) ![图片](https://i-blog.csdnimg.cn/img_convert/4af074e204111cc48c07a1424de7c859.png) ![图片](https://i-blog.csdnimg.cn/img_convert/a647b54817b8fb33211baebe4002112b.png) ![图片](https://i-blog.csdnimg.cn/img_convert/e96444826691bbf68c0a7ad78ae6dd41.png) ![图片](https://i-blog.csdnimg.cn/img_convert/4a518e1b47271ba6b9cd8eae28d580f0.png) #### 3.1.2 VQA、Grounding数据处理 ![图片](https://i-blog.csdnimg.cn/img_convert/4a22e227066fed548b6223087096fa29.png) ![图片](https://i-blog.csdnimg.cn/img_convert/3daf2d713cff746d0b2ed3beaac1d986.png) ![图片](https://i-blog.csdnimg.cn/img_convert/f37387f3a2d5f8e64952dd0948debf2f.png) ![图片](https://i-blog.csdnimg.cn/img_convert/5fc1eabb53dfa78e19cc71cccb2fcb86.png) #### 3.1.3 OCR数据处理 ![图片](https://i-blog.csdnimg.cn/img_convert/e2204e4f9885d855a027d5f38981ff82.png) ![图片](https://i-blog.csdnimg.cn/img_convert/0e6c4814a85861ab8a4eee2b31f20f2b.png) ocr数据合成: ![图片](https://i-blog.csdnimg.cn/img_convert/58f820785e0d81979108cf16b60e483c.png) PDF处理: ![图片](https://i-blog.csdnimg.cn/img_convert/9e502c0fc940fbad7edd00b987400256.png) ![图片](https://i-blog.csdnimg.cn/img_convert/7ba770ef9122ec0fbe8dc0c9ce4654fb.png) HTML处理: ![图片](https://i-blog.csdnimg.cn/img_convert/1a9f80be354de7edc7d32c5b594e0fa7.png) ![图片](https://i-blog.csdnimg.cn/img_convert/d926d08ed1d2fe93d5c947254902bcb5.png) ### 3.2 数据格式 ![图片](https://i-blog.csdnimg.cn/img_convert/6d8229af36509a61739f26c0db87801e.png) ![图片](https://i-blog.csdnimg.cn/img_convert/14f9776d364c0f51d7d1b17eec1caf96.png) ![图片](https://i-blog.csdnimg.cn/img_convert/e8a7b2d2529cef3ceb502a8d64c762be.png) ## 四 实验结果 ![图片](https://i-blog.csdnimg.cn/img_convert/d0db6a19b5e176852811d2ee908f4c9a.png) ![图片](https://i-blog.csdnimg.cn/img_convert/d3f7a210e921c2a180f542589610e726.png) ![图片](https://i-blog.csdnimg.cn/img_convert/b529b4a22cf1f1c6d049134ba9d60f4c.png) ![图片](https://i-blog.csdnimg.cn/img_convert/461b0b4c125bff267588d312bdded6b2.png) ![图片](https://i-blog.csdnimg.cn/img_convert/02280ca4314f8cc368fadaaf77aeb060.png) ![图片](https://i-blog.csdnimg.cn/img_convert/517d3d792b6b14d041328111eaa39a3b.png) ![图片](https://i-blog.csdnimg.cn/img_convert/1661ea82659d9065d3cc5aa07b9a1b4f.png) ![图片](https://i-blog.csdnimg.cn/img_convert/325691287c1fc7b6c0e6182229db2ba8.png) ![图片](https://i-blog.csdnimg.cn/img_convert/40ddb5cade80e1b6c6ef5491c99b7cef.png)

相关推荐
袋鼠云数栈1 天前
让多模态数据真正可用,AI 才能走出 Demo
大数据·人工智能·数据治理·多模态
xx_xxxxx_1 天前
多模态动态融合模型Predictive Dynamic Fusion论文阅读与代码分析2-对比模型与底层模型的基本结构
论文阅读·多模态
一个无名的炼丹师2 天前
多模态RAG系统进阶:从零掌握olmOCR与MinerU的部署与应用
python·大模型·ocr·多模态·rag
feasibility.2 天前
多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例
人工智能·python·大模型·nlp·llama·多模态·具身智能
余俊晖3 天前
Qwen3-VL-0.6B?Reyes轻量化折腾:一个从0到1开始训练的0.6B参数量的多模态大模型
人工智能·自然语言处理·多模态
程序员学习Chat3 天前
多模态-8 YOLO World
多模态·多模态模型
山顶夕景4 天前
【LLM】多模态智能体Kimi-K2.5模型
llm·agent·多模态
韦先波6 天前
开源视觉大模型GLM-4.6V-Flash-WEB在内容审核中的应用探索
内容审核·多模态大模型·glm-4.6v-flash-web
阿杰学AI6 天前
AI核心知识72——大语言模型之Native Multimodality(简洁且通俗易懂版)
人工智能·ai·语言模型·aigc·语音识别·多模态·原生多模态