
**序言:**近几个月非常精彩。AI研究领域又有了许多新进展,其中包括两个诺贝尔奖授予了AI领域,以及几篇有趣的研究论文发表。
其中,Meta AI 发布了最新的 Llama 3.2 模型,包括 1B 和 3B 规模的大语言模型的开源版本,以及两个多模态模型。
在接下来的4个篇章中,我将解释多模态大语言模型的工作原理。此外,我还会回顾并总结过去几周发布的约十几篇关于多模态的研究论文和模型(包括 Llama 3.2),并对它们的不同方法进行对比分析。

多模态大语言模型示意图,该模型可以接受不同的输入模态(音频、文本、图像和视频),并以文本作为输出模态。
1. 多模态大语言模型的应用场景
什么是多模态大语言模型?正如介绍中提到的,多模态大语言模型是能够处理多种类型输入的大语言模型,其中每种"模态"指特定类型的数据,例如传统大语言模型中的文本、声音、图像、视频等。为了简化讨论,我们主要关注图像模态与文本输入的结合。
一个经典且直观的多模态大语言模型应用是图像描述生成:你提供一张输入图像,模型生成对该图像的描述,如下图所示。

当然,还有很多其他的使用场景。比如,我最喜欢的之一就是从 PDF 表格中提取信息,并将其转换为 LaTeX 或 Markdown。
下一篇将主要介绍设计多模态大语言模型的通用方法。