多模态前沿-第二章 视觉问答-原生统一架构

上一节介绍了以BLIP-2和LLaVA为代表的"连接"方法。这类方法通过轻量级适配模块连接冻结的视觉编码器与大语言模型,虽然极大降低了训练成本,但底层模态的分离和输入端的生硬拼接限制了其在实时音频/视频交互等场景下的表现。为了突破这一局限,学术界与工业界正加速向原生统一的架构演进。

一、迈向统一的探索

1.Flamingo架构设计

DeepMind在2022年提出的Flamingo虽然在时间上早于BLIP-2,但在多模态的大一统进程中占据了独特的生态位。不同于BLIP-2和LLaVA追求的"利用现有组件高效连接",Flamingo探索的是大规模图文交错序列(Interleaved Image-Text)的学习极限。在架构演进的视角下,它事实上构成了从"简单连接"向"原生统一"进化的关键过渡形态。其核心架构目标是桥接强大的预训练视觉模型和大语言模型(LLM),在保留它们各自预训练知识的同时,成功实现了在极少样本情况下对任意交错(Interleaved)图像和文本序列的处理能力。为了实现这一目标,Flamingo采用了如下图所示的架构。

可以看到图中的图像数据会先通过左侧的视觉路径进行视觉编码(Vision Encoder)和重采样(Perceiver Resampler),生成固定长度的视觉特征。接着,这些特征被注入到右侧的语言路径中,通过插入在LLM层间的门控交叉注意力接口(Gated XATTN-DENSE)参与文本生成。为了支撑这一跨模态流转过程,Flamingo设计了下面三个关键组件:

(1)视觉感知与特征重采样

Flamingo使用NFNet-F6作为冻结的视觉编码器,提取图像或视频的特征。由于视觉输入的分辨率和视频帧数可能不同,导致特征图的大小和数量也是变化的。为了将这些变长的视觉特征统一为固定长度的输入,Flamingo引入了Perceiver Resampler模块。该模块预定义了一组固定数量的可学习的潜在查询向量(Latent Queries) ,通过Cross-Attention机制与视觉特征交互,最终输出固定数量的视觉Token(论文中为64个)。这种设计不仅显著降低了视觉-文本Cross-Attention的计算开销,也通过"压缩视觉token数量"的方式在实践中缓解了Transformer随序列长度增长带来的计算/显存压力(严格来说并非"消除",而是让N不至于被视觉token拉得过大)。结合下图所示,Perceiver Resample会先将Vision Encoder输出的变长视觉特征展平。对于视频输入,Flamingo会在展平前为每一帧特征加入可学习的时间嵌入;同时作者也明确指出未显式加入空间网格位置编码 (空间信息更多由CNN特征隐式携带)。这里的Key和Value在论文的示意与伪代码中可以由时空视觉特征与learned latent vectors拼接而成。也就意味着Latent Queries在通过Attention机制"查询"视觉信息时,不仅关注图像特征,也在"参考"自身的当前状态,继而保持了特征提取的连贯性。随后,这些Latent Queries主动去"查询"视觉特征中包含的关键信息,无论输入视觉特征序列有多长(单图或多帧视频),最终都只输出与Latent Queries数量一致的定长视觉Token。通过这种机制,海量的视觉数据被高效地压缩成了少量的定长Token序列,供后续LLM使用。

(2)视觉信息注入与门控机制

为了将视觉信息有效注入预训练且冻结的语言模型(Chinchilla)中,Flamingo在其层间插入了GATED XATTN-DENSE模块。如下图所示,该模块以语言特征(Language input)作为Query,以Perceiver Resampler输出的视觉特征(Vision input)作为Key和Value,通过交叉注意力机制让语言模型主动从视觉序列中提取相关信息。为了维持冻结LLM原有的语言能力,Cross-Attention和随后的FFW层均配置了tanh门控机制(tanh gating),这些门控参数在初始化时设为0,确保模型在训练初期表现为纯语言模型,避免了视觉噪声冲击导致的训练不稳定。随着训练的进行,门控值逐渐增大,视觉信息以残差连接的方式"平滑"地融入语言特征流中。这种设计不仅防止了灾难性遗忘,还让模型能够通过交错的Self-Attention和Cross-Attention层,在保持语言逻辑的同时实现深度的多模态对齐。

(3)多图支持与掩码策略

为了支持任意数量的图像/视频输入,Flamingo在Masked Cross-Attention层采用了特殊的分段掩码策略。如下图所示,这种策略实施了严格的局部关注,即每个文本Token仅被允许关注其直接前导的那一张图像,而不是所有历史图像。例如,图中标记为1的文本段只能看到Image 1,而无法看到Image 2或其他图像。具体而言,图中亮蓝色区域代表允许文本Token关注的视觉特征,而深色区域则代表被屏蔽的部分。这种设计限制了单次交叉注意力的计算复杂度,防止模型被无关图像干扰。虽然Cross-Attention层只关注局部,但跨图像的长程依赖被交给底层的LM-Self-Attention,通过文本Token作为中介,间接实现了多图信息的融合。基于这一机制,Flamingo能够高效处理包含多达32对图文的Few-Shot Prompt,展示了强大的上下文学习能力。

2.局限性与思考

Flamingo强大的少样本能力很大程度上归功于它的训练数据。DeepMind构建了M3W(Multi-Modal Massive Web)数据集,包含从4300万个网页中提取的图文交错序列(如:文本-图像-文本)。这种结构模拟了人类浏览网页的真实体验,使模型学会了根据上下文预测下一个Token。而且,为了兼顾通用的视觉识别能力,Flamingo还混合使用了传统的强对齐图文对数据集(ALIGN,LTIP)和视频文本对数据集(VTP),并通过加权损失函数进行联合训练。然而,Flamingo仍然存在一些局限性。例如,相较于直接优化图文检索任务的Contrastive模型(如CLIP),Flamingo在单纯的图像分类任务表现稍逊,这可能源于其生成式目标的特性。同时,作为建立在LLM基础上的模型,Flamingo继承了LLM的缺点,偶尔会产生幻觉或做出无根据的猜测。最关键的是,受限于当时的技术背景,Flamingo依然保留了"冻结视觉编码器"这一连接范式的特征。虽然这种依赖冻结编码器的设计有助于保留预训练模型的通用能力,但也导致视觉和语言在底层特征空间上无法真正融合,细腻的视觉感知能力(如OCR、细粒度识别)容易在层层传递中丢失。

二、Token级统一与单一网络

为了彻底打破上述局限,Chameleon和GPT-4o等模型开启了纯粹的原生时代。严格意义上的"纯粹原生"模型不再是"拼凑"出来的,它从一开始就将所有模态视为地位平等的"语言",在同一个大模型中进行混合模态的端到端预训练。就像人类婴儿并非先学会"看"再学会"说",而是在成长的过程中同时通过视觉、听觉和语言来感知世界一样,原生多模态模型试图模拟这种过程。在架构方面,模型彻底摒弃了独立的模态编码器,并将像素、波形和文本一视同仁地映射为Token或底层特征,直接送入同一个"大脑"(单一大模型网络)进行处理。

1.Chameleon与统一词表

Meta AI推出Chameleon是"早期融合(Early-Fusion)"架构的典型代表。虽然在架构上进行了彻底的重构(不再依赖外挂的视觉编码器),但从数据层面看,Chameleon完美继承并发展了Flamingo最宝贵的遗产,也就是基于大规模"图文交错"数据的训练范式。它的理念非常激进,主张把一切都视为Token。为了实践这一目标,Chameleon在架构设计上进行了以下三个层面的创新:

(1)统一词表与离散化

Chameleon使用一个名为Gafni的图像分词器将512 x 512的图像量化为1024个离散的Image Tokens。这些视觉Token与文本Token并没有本质区别,它们共同组成了一个大小为65536的统一词表(包含了8192个图像Codebook Token)。这意味着在模型眼中,像素和文字都是来自同一个字典的"单词"。

(2)混合序列与端到端架构

在处理输入时,Chameleon将图像Token和文本Token按照逻辑顺序拼接成一个混合模态序列 (Mixed-Modal Sequence)。整个序列直接输入到一个统一的Transformer架构中。无论是理解还是生成,本质上都转化为了自回归的下一Token预测任务。这种架构极大地简化了流程,不再依赖外挂的视觉编码器或复杂的跨模态对齐模块。如下图所示,通过图像分词器(Image Tokenizer)图像被转化为与文本(绿色)地位平等的蓝色Token,并在边界符(Start/End Image)的辅助下混合编排,真正实现了端到端的全原生多模态理解与生成。

(3)攻克训练稳定性挑战

"从头开始"训练这样一个混合模态大模型面临着巨大的优化稳定 性挑战(如模态间的竞争导致的Logit漂移)。为此,Chameleon引入了一系列架构创新,包括QK-Norm(Query-Key Normalization)和特殊的层归一化布局。这些改进确保了模型能够在没有预训练视觉编码器"保底"的情况下,稳定地学习到跨模态的复杂依赖关系。下图通过三组实验揭示了稳定性问题的本质与解决方案。图(a)展示了在应用优化策略后,7B和34B模型均能在混合模态数据上稳定收敛。图(b)则通过对比实验指出,图像生成任务 (Image Generation)是导致不稳定的根源-当禁用图像生成时,Loss曲线非常平滑,未出现发散。图(c)进一步验证了架构调整的有效性,单纯引入Dropout并不能解决发散问题(橙色曲线依然发散),而层归一化重排(Norm Reordering)才是实现稳定训练的关键(蓝色曲线)。

通过下表可以清楚的看到,Chameleon 7B和34B在架构参数上与LLaMa-2总体保持一致(如Context Length和GQA),但为了适应混合模态训练,其在优化策略上做出了明显调整,重点包括引入Z-loss和QK-Norm,并将训练数据量提升到了4.4T Token(约为LLaMa-2的两倍)。这种原生统一架构实现了真正的全模态理解与生成。模型可以在任意层级、任意位置进行模态间的推理,展现出惊人的上下文学习能力。然而,这种"原生"也是昂贵的。Chameleon需要在包含约10万亿(10T)token的混合数据上进行大规模预训练,且训练过程对超参数极度敏感。

2.GPT-4o与全模态原生

在图文统一的基础上,GPT-4o("o"代表Omni)进一步打破了音频的边界,成为了纯粹原生全模态模型的标杆。根据OpenAI的公开介绍,在GPT-4o之前,语音模式是由三个独立模型组成的级联系统(ASR转文本->LLM处理文本->TTS转语音)。对于GPT-4o,OpenAI跨文本、视觉和音频端到端地训练了一个单一的新模型,也就意味着所有的输入和输出都由同一个神经网络处理,这种纯粹的原生架构使GPT-4o能够直接感知语气、多个说话者、背景噪音,并输出带有情感的语音,在语音对话中甚至能达到最短约232ms的响应延迟。

三、走向全能:端到端Omni系统的工业实践

虽然Chameleon和GPT-4o定义了"纯粹原生"的最终形态(单一网络、彻底的Token统一),但从头训练的成本极为高昂。在真实的工业界和开源社区中,更常见也更容易规模化落地的一条路线,是走向端到端紧耦合(End-to-End Tightly-Coupled)的Omni系统。这类系统(如Qwen3-Omni和MiniCPM-o 4.5)严格来说不属于单一网络的原生架构,因为它们依然保留了专门的音频或视觉编码器。但它们打破了早期"冻结外挂"的连接范式,通过全参数解冻的端到端联合训练、深度的隐藏态耦合以及高速的流式架构,在体验上无限逼近了GPT-4o的实时语音交互。

1.解耦架构与流式生成

虽然GPT-4o的闭源策略让我们难以窥探其单一网络的内部细节,但Qwen3-Omni为这种"全能体验"的工业落地给出了可复现的系统级拆解。它不仅在文本和视觉任务上保持了与同系列单模态模型相当的性能,也在实时音频交互上展现了很高的工程水准。

(1)通用的听觉底座

不同于以往多模态模型常依赖Whisper等现成且冻结的ASR,Qwen3-Omni采用了一个拥有约6亿参数的从头训练的AuT(Audio Transformer)音频编码器。如下图所示,AuT采用了Transformer架构,包含32层Encoder和8层Decoder。并在2000万小时的监督音频数据上进行了预训练,使它不仅能处理语音,还能理解环境音和音乐。在特征提取阶段,AuT通过3层下采样卷积将输入音频(10ms帧移的FBank特征)在时间维度上压缩8倍,将特征采样率大幅降低至12.5Hz(即每80ms一个Token),实现了高效表征。同时,AuT在32层Encoder中还引入了分块窗口注意力(Block-wise Window Attention)机制,支持动态窗口大小,使得模型在实时流式输入时能高效地进行Prefill(预填充),而无需等待整个音频片段。

(2)Thinker-Talker混合专家架构与极致流式

Qwen3-Omni采用了独特的Thinker-Talker双模型协作架构,并均升级为MoE以应对高并发需求。为了达成234ms的端到端延迟,这套架构结合了深度解耦与极速流式设计。主要分成Thinker(思考者)和Talker(表达者)两部分。其中,Thinker是一个强大的多模态MoE模型,它主要负责"脑力"工作,也就是理解来自AuT的音频流、视觉编码器的视频流以及文本输入,进行深度推理,并生成文本回复或推理结果;Talker则是一个专门的流式语音生成MoE模型,它不再直接消费Thinker的高层文本表征/文本Token,而是接收Thinker输出的多模态高维表征,并共享对话历史。这种解耦设计赋予了Talker更高的灵活性,使它能专注于对齐语音的韵律、情感和语速,不必受制于语言模型的逐词生成节奏,各模块的具体参数配置如下表所示。

各组件的协同工作,实现了极其高效的端到端生成。如下图所示,为了实现极致流式,Thinker模型首先处理多模态输入,生成高层语义表征;而后Talker接收这些表征并自回归地预测第0层(主)Codebook;紧接着,轻量级地MTP模块会快速预测同一帧中其余残差Codebook。最后,所有层级的Codebook被送入流式Codec解码器,逐帧流式地合成出波形。这一流程确保了模型不需要等待完整的句子甚至完整的词生成完毕,只要第一个codec token产生,声音就能立即被"流"出来。

(3)三阶段训练策略

为了实现上述能力,Qwen3-Omni还经历了三个关键的预训练阶段。在编码器对齐(Encoder Alignment)阶段,模型冻结LLM,专注于训练AuT和视觉编码器的适配器,使其对齐到语言空间。进入通用预训练阶段后,全参数解冻,在包含了2万亿Token的大规模多模态数据(文本、图像、音频、视频)上进行混合训练。而在上下文扩展(Long Context Stage)阶段,序列长度被扩展至32k,重点增强模型对长视频和长音频的理解能力。这一系列复杂的联合优化与流式调度证明,通过精巧的系统设计,模型完全可以在复用现成模块的同时,打破延迟瓶颈,兼顾强大的推理能力与毫秒级的交互响应。

2.全双工与端侧延伸

在Omni系统领域,除了追求模型体量和极致的理解能力,系统级的实时流式交互 (全双工,Full-Duplex)和端侧部署成为了另一个重要的演进方向,开源社区的MiniCPM-o 4.5正是这一趋势的代表。以往的语音助手多采用"半双工"(你听我说,我说你听)或简单的打断机制,而MiniCPM-o 4.5实现了真正的"边听边想边说"。它能够在接收实时视频和音频输入流的同时,不阻塞地并行输出文本和语音流。得益于它底层将多模态数据流(并行输入/输出)在毫秒级时间轴上进行了精密的对齐与同步处理,使模型能在任意时刻主动决定是否发声,实现自然的"主动插话"和"响应打断"。如下图所示,模型会在LLM输出序列中插入[silent]占位Token以维持流式节拍,并将生成的Token与隐藏态h一并送入语音Token解码器,产生25Hz的speech tokens,由此在统一时间轴上对齐输入与输出,完成复杂的全双工调度。

尽管MiniCPM-o 4.5整合了视觉(SigLIP2)、听觉(Whisper-medium)、语音合成(CosyVoice2)以及大语言模型(Qwen3-8B),但这套架构被端到端地深度融合在了一起,整体参数量控制在9B左右。配合高效的模型量化(如Int4仅需11GB显存)和专属推理框架,它甚至能够在普通的个人电脑乃至手机上流畅运行全双工的音视频对话。这种在有限算力下逼近GPT-4o级别实时体验的设计,展现了端到端紧耦合架构在工程落地上的巨大潜力。

相关推荐
没有bug.的程序员2 小时前
低代码平台后端引擎:元数据驱动架构、插件化内核与 Java 扩展机制
java·低代码·架构·插件化·元数据·扩展机制
敢敢のwings2 小时前
OpenClaw 高级用法深度解析:从 Token 经济学到生产级 Agent 架构
架构
一个无名的炼丹师2 小时前
从零构建工业级 AI Agent 操作系统:本地优先记忆网络与动态 Skills 架构详解
网络·人工智能·架构·大模型·openclow
HyperAI超神经2 小时前
物理信息机器学习新突破!新型GNN架构可对复杂多体动力系统进行准确预测,赋能机器人/航空航天/材料科学
人工智能·深度学习·机器学习·架构·机器人·cpu·物理
写bug的小屁孩2 小时前
Langfuse 查询慢到崩溃?我用二级缓存 + 预热架构把响应时间干到 4ms
架构
TDengine (老段)2 小时前
煤机设备每天 TB 级数据,天地奔牛用 TDengine 把查询提速到“秒级”
大数据·运维·数据库·struts·架构·时序数据库·tdengine
Jackson_Li3 小时前
你知道什么是 Prompt Caching 吗
人工智能·架构
中杯可乐多加冰3 小时前
【一点浅思】Transformer架构是否已经触及性能天花板?未来架构突破的方向在哪里?
深度学习·架构·transformer
前端小配角4 小时前
从“养虾”到“用虾”:如何打造普通人也能驾驭的OpenClaw
架构