一、引言
随着人工智能大模型的快速发展和在生活、学习中广泛应用,从仅处理文本的单模态模型,到融合视觉、音频、视频的多模态模型,是行业重要演进方向。LLM、VLM、MLLM、LMM 是多模态 AI 领域的核心概念,因名称相近、功能交叉,极易产生认知混淆。弄清它们的定义、功能差异与内在关联,是理解大模型从文本单一交互到多模态协同的关键。本文将给出四大模型的核心内涵,明确彼此边界与层级关系,帮助读者清晰把握单模态到多模态大模型的技术逻辑与发展脉络。
二、LLM、VLM、MLLM、LMM的含义
LLM(大型语言模型)-Large Language Model
VLM(视觉语言模型)-Vision-Language Model
MLLM(多模态大语言模型)-Multimodal Large Language Mode
LLM (大型多模态模型)Large Multimodal Model
LLM模型,是一种大语言模型,大型语言模型是基于深度神经网络构建的先进人工智能系统,专门处理、理解和生成类人文本。这些模型通过海量文本数据的训练,学习语言的语法、语义和上下文信息,掌握了语言的深层次规律和上下文逻辑。其核心思想是通过大规模的无监督训练学习自然语言的模式和结构,在一定程度上能模拟人类的语言认知和生成过程。
VLM模型,是融合计算机视觉与自然语言处理的多模态大模型,通过视觉编码器提取图像特征,结合大语言模型实现图文语义对齐。它可同步理解图像与文本,完成看图问答、图像描述、跨模态检索、视觉推理等任务,广泛应用于 AI 助手、自动驾驶、图像和视频创作等领域。视觉语言模型是连接视觉与语言理解的桥梁,它能够同时处理图像和文本输入,生成与视觉内容相关的文本输出。
MLLM(多模态大语言模型)以大语言模型为核心,融合文本、图像、音频、视频等多模态信息,实现统一语义理解与生成。它模态更丰富,兼容多源数据,兼具跨模态推理、生成能力。与聚焦视觉-文本双模态的 VLM 不同,MLLM 是更通用、能力更全面的多模态架构,VLM 属于其细分视觉文本分支。
LMM大模型,即大型多模态模型,是一种能够处理、理解和生成多种模态数据(如文本、图像、音频、视频等)的深度学习模型。LMM具有强大的跨模态理解和生成能力,可以用于处理更为复杂和多样化的任务,实现更接近人类认知的复杂任务,如看图回答问题、视频内容分析等。
三、四者之间关系
综上所述,LLM 是纯文本大语言模型,为基础核心;VLM 聚焦视觉 - 文本双模态交互;MLLM、LMM 均为通用多模态大模型,兼容多类数据,LMM 是多模态大模型的统称,可处理文本、图像、音频等多种模态数据,MLLM 是以大语言模型为核心的多模态大语言模型,属于 LMM 的主流子类,以语言为中枢实现多模态理解与交互,二者为包含与被包含关系。四者呈现从单模态到多模态、从专项到通用的递进关联,构成多模态人工智能基础框架。