北大等发布多模态版 o1!首个慢思考 VLM 将开源,视觉推理超越闭源模型

北大等出品,首个多模态版 o1 开源模型来了------

代号 LLaVA-o1,基于 Llama-3.2-Vision 模型打造,超越传统思维链提示,实现自主 "慢思考" 推理。

在多模态推理基准测试中,LLaVA-o1 超越其基础模型 8.9%,并在性能上超越了一众开闭源模型。

新模型具体如何推理,直接上实例,比如问题是:

减去所有的小亮球和紫色物体,剩下多少个物体?选项:A. 4,B. 8,C. 2,D. 6

传统提示词方法还是老路子,让 Llama-3.2-11B-Vision-Instruct 打个样就是:

第一步减去所有的小亮球;

第二步减去所有紫色物体;

最后给出答案,鉴于我们已经移除了所有的小亮球,而且一开始就没有紫色物体,正确答案是 C. 2;

哐哐一顿输出,得出错误结果。

我们再来看 LLaVA-o1 的推理过程:

总结阶段:问题是什么?我应该怎么做?

注释阶段:我能从这张图片中知道什么?

推理阶段:如何一步一步解决问题?

结论阶段:最终答案是什么?

是不是明显不同。这就对了,LLaVA-o1 超越传统 COT 思维链,采用了结构化、多步骤推理。

简单说,它将推理过程划分为四个阶段,并在每一阶段采用优中选优策略来为下一阶段提供响应。

难怪看完最新效果,网友们直呼:推理 is all you need!

看来,让模型思考更多在多模态领域也同样适用------

"第一个能自发、系统推理的视觉语言模型"

前一阵,o1 模型的发布又带火了 COT 思维链这一推理模式。(像人类一样步步思考)

于是,让模型思考更多是否会提高模型能力成为新的研究热点。

这不,除了像 o1 这样的通用大语言模型,北大团队还瞄上了多模态这一领域------

他们超越传统 COT 思维链,采用结构化、多步骤推理,一举推出多模态版 o1 模型------LLaVA-o1。

作者先澄清了一下, 虽然最近的 VLM 模型有类似名称,但 LLaVA-o1 是建立在 Llama-3.2-Vision 模型之上,而不是 LLaVA。

那么,学会逐步推理的 LLaVA-o1 有多大提升呢?

根据论文介绍,仅用一个包含 10 万 训练样本的数据集,LLaVA-o1 在多模态推理基准测试中超越了其基础模型 8.9%,并且在性能上超越了更大的模型。

甚至包括一些闭源模型,如 Gemini-1.5-pro、GPT-4o-mini 和 Llama-3.2-90B-Vision-Instruct。

针对这一提升,团队也发现了背后的关键原因:

结构化响应显著提高了模型的系统推理能力

为了使 LLaVA-o1 更加结构化和系统化,团队设计了 4 个标签来帮助模型识别当前的推理阶段,并使用 GPT-4o 来生成 LLaVA-o1-100k 数据集。

  • <摘要>:该模型简要解释了接下来的任务

  • <标题>:它描述了图像中的重要细节(如果有)

  • <理由>:它详细分析了这个问题

  • <结论>:它基于分析提供最终答案

借助这些标签,LLaVA-o1 将推理过程划分为四个明确的阶段:总结(Summary)、视觉解释(Caption)、逻辑推理(Reasoning)和结论生成(Conclusion)。

与思维链提示不同,LLaVA-o1 独立参与了这些连续阶段。

不过需要提醒,在 LLaVA-o1 的推理过程中,前三个阶段都在内部处理(对用户隐藏),而最终结论阶段才是用户可以看到并直接与之交互的。

采用这种设计,可以使模型在不向用户暴露复杂推理细节的情况下,提供清晰和准确的答案。

接下来,LLaVA-o1 通过监督微调和阶段级光束搜索方法(stage-level beam search method)来进一步提升推理能力和推理时间的可扩展性。

这里我们重点说一下团队创新提出的阶段级光束搜索方法

简单说,团队为每个阶段(用标签标记)生成多个响应,并选择其中最佳的一个进入下一阶段。

更具体的,这是一种用于推理时间扩展(Inference-time scaling)的技术,与传统方法不同,阶段级光束搜索专注于模型推理过程中的每个独立阶段。

在这种方法中,模型在每个推理阶段生成多个候选结果,然后从中选择最佳的结果继续下一个阶段的推理。

由于它允许模型在每个阶段进行选择和优化,从而提高了整体推理的质量。

通过这种分阶段的搜索策略,LLaVA-o1 能够更有效地进行推理,尤其是在处理复杂的多模态推理任务时。

最后,通过对 Llama-3.2-11B-Vision-Instruct 模型的微调,结果显示:

LLaVA-o1 在多模态推理基准测试上使用 10 万个训练样本和简单的推理时间扩展方法,实现了 8.9% 的性能提升,超越了同等规模以及更大或闭源的模型。

北大、鹏城实验室等团队出品

简单认识一下研究背后的团队,论文作者一共 6 人,下面一一介绍。

Guowei Xu,目前本科就读于清华姚班,对强化学习、机器人和科学领域的 AI 应用感兴趣。

去年入学以来,他已在国际学术会议上参与发表多篇论文,并获得 2024 新生一等奖。


Peng Jin(金鹏),曾在清华大学获得学士学位,目前是北大三年级博士生,师从袁粒。

他对文本 - 视频检索、跨模态表示学习以及多模态大语言模型感兴趣,从 2022 年 9 月至今,已有 11 篇论文被顶会接收。

和他同样北大博三,师从袁粒的,还有 Hao Li(李昊),不过李昊之前毕业于北大计算机科学系。

李昊对多模态学习、视觉理解和化学科学人工智能感兴趣,至今已在国际顶会上发表了 20 多篇论文,总谷歌学术引用量 300+。

而他们的老师袁粒,量子位的读者想必都很熟悉了。

袁粒目前是北大深圳研究生院助理教授,专注于多模态深度学习研究方向,一作论文单篇被引用千余次。

屡屡登上热搜的 ChatExcel、ChatLaw 等垂直领域产品,都是出自他的团队。

另外两位作者:

Yibing Song(宋奕兵),目前是阿里达摩院研究员 / 研究经理,之前还是复旦大学的一名教师,并在腾讯 AI 实验室担任高级研究员。

他当前主要对多模态 AI 感兴趣,至今发表了 50 多篇顶级论文,而且被斯坦福大学选为全球前 2% 的科学家之一。

Lichao Sun,目前是美国莱赫大学计算机科学与工程系助理教授。

在此之前,他于 2020 年在伊利诺伊大学芝加哥分校获得计算机科学博士学位。

他还是多项奖项的获得者,包括 2024 年微软加速基础模型研究奖、2024 年 OpenAI 研究员奖和 NSF CRII 奖。

接下来,团队宣布 LLaVA-o1 的代码、预训练权重、数据集等即将全部开源。

感兴趣的童鞋可以蹲一波了~

论文:
arxiv.org/abs/2411.10...

GitHub:
github.com/PKU-YuanGro...

参考链接:

[1]news.ycombinator.com/item?id=421...

[2]x.com/gm8xx8/stat...

--- ---

相关推荐
衬衫chenshan1 小时前
【论文阅读】Large Language Models for Equivalent Mutant Detection: How Far Are We?
论文阅读·人工智能·语言模型
云空1 小时前
《人工智能深度学习的基本路线图》
人工智能·深度学习
一只老虎1 小时前
AI 技术在旅游和酒店行业的应用前景
人工智能·旅游·酒店
墨绿色的摆渡人2 小时前
用 Python 从零开始创建神经网络(五):损失函数(Loss Functions)计算网络误差
人工智能·python·深度学习·神经网络
我的心永远是冰冰哒2 小时前
pytorch奇怪错误
人工智能·pytorch·python
DisonTangor2 小时前
英伟达基于Mistral 7B开发新一代Embedding模型——NV-Embed-v2
人工智能·搜索引擎·embedding
飞凌嵌入式2 小时前
飞凌嵌入式RK3576核心板已适配Android 14系统
android·人工智能·飞凌嵌入式
微刻时光2 小时前
RPA真的是人工智能吗?
人工智能·rpa
爱编程的涵崽3 小时前
PyTorch——从入门到精通:PyTorch基础知识(张量)【PyTorch系统学习】
人工智能·pytorch·python·深度学习
宋一诺333 小时前
机器学习—诊断偏差和方差
人工智能·机器学习