谈一谈多模态

多模态这摊子事,现在算是CV和NLP两派混战的擂台。

发展路线如下:

多模态视觉-语言模型演进详表

名称 特点(核心贡献) 时间(公认) 发表会议/机构
ViT Vision Transformer:首次将纯Transformer架构成功应用于图像分类,摒弃CNN,将图像分割为图块序列处理,奠定了视觉领域的基础Transformer骨干网络。 2020年10月 ICLR 2021
CLIP Contrastive Language-Image Pre-training :开创性的大规模图文对比学习模型。通过海量网络图文对进行对比训练,学习强大的跨模态对齐能力,实现零样本图像分类和强大的图文检索。 2021年2月 ICML 2021 (来自OpenAI)
MoCo / iBOT 动量对比 / 自监督视觉预训练 :MoCo是自监督视觉表征学习的里程碑。iBOT是其扩展,通过在图像掩码预测任务中进行自蒸馏学习,获得高质量的通用视觉特征。它们是强大的视觉编码器预备工作。 MoCo: 2019.11; iBOT: 2021.11 CVPR 2020 / Arxiv
ALBEF Align Before Fuse :提出"先对齐,后融合"的VLP范式。引入动量蒸馏技术,从动量教师模型中提取软标签来学习,缓解网络噪声数据带来的影响,提升模型鲁棒性。 2021年7月 NeurIPS 2021
BLIP Bootstrapping Language-Image Pre-training :首个统一理解生成 任务的VLP框架。提出MED 混合架构和CapFilt数据增强法(Captioner生成描述,Filter过滤噪声),大幅提升多任务性能。 2022年1月 ICML 2022 (来自Salesforce)
Flamingo Few-shot 多模态大模型 :将预训练的视觉编码器和语言模型(Chinchilla)通过感知器重采样器 等新颖模块连接,实现在少样本 甚至零样本设定下的出色多模态对话和推理能力。 2022年4月 NeurIPS 2022 (来自DeepMind)
BLIP-2 通用高效的视觉-语言预训练 :提出Q-Former ,一个轻量的查询Transformer,作为冻结的图像编码器和冻结的大语言模型之间的高效桥梁,用极少的可训练参数实现强大的多模态能力。 2023年1月 Arxiv (来自Salesforce)
LLaVA系列 Large Language and Vision Assistant :开创了开源视觉指令微调的先河。将CLIP视觉编码器与Vicuna/LLaMA等开源LLM连接,通过高质量的视觉-语言指令数据进行微调,实现媲美GPT-4V的多模态对话能力。 2023年4月 (v1) NeurIPS 2023 (来自威斯康星大学等)
Llama 3.2 Vision Meta官方多模态大模型 :作为Llama 3系列的一部分,是Meta发布的官方原生多模态版本。它深度集成了视觉理解能力,在指令遵循、细节描述和推理方面表现优异,是闭源多模态模型的有力竞争者。 2024年7月 Meta官方发布
相关推荐
晚霞的不甘2 分钟前
守护智能边界:CANN 的 AI 安全机制深度解析
人工智能·安全·语言模型·自然语言处理·前端框架
谢璞3 分钟前
中国AI最疯狂的一周:50亿金元肉搏,争夺未来的突围之战
人工智能
池央3 分钟前
CANN 算子生态的深度演进:稀疏计算支持与 PyPTO 范式的抽象层级
运维·人工智能·信号处理
方见华Richard5 分钟前
世毫九实验室(Shardy Lab)研究成果清单(2025版)
人工智能·经验分享·交互·原型模式·空间计算
Maynor9965 分钟前
OpenClaw 玩家必备:用 AI 自动追踪社区最新动态
java·服务器·人工智能
aini_lovee5 分钟前
MATLAB基于小波技术的图像融合实现
开发语言·人工智能·matlab
ujainu15 分钟前
CANN仓库中的AIGC多模态统一抽象工程:昇腾AI软件栈如何用一套接口驾驭图文音视
人工智能·aigc
AC赳赳老秦20 分钟前
代码生成超越 GPT-4:DeepSeek-V4 编程任务实战与 2026 开发者效率提升指南
数据库·数据仓库·人工智能·科技·rabbitmq·memcache·deepseek
液态不合群22 分钟前
推荐算法中的位置消偏,如何解决?
人工智能·机器学习·推荐算法
饭饭大王66626 分钟前
当 AI 系统开始“自省”——在 `ops-transformer` 中嵌入元认知能力
人工智能·深度学习·transformer