【论文笔记】【强化微调】TinyLLaVA-Video-R1:小参数模型也能视频推理

[2504.09641] TinyLLaVA-Video-R1: Towards Smaller LMMs for Video Reasoning

1. 引述

继之前的一篇 Video-R1 的工作,一篇新的关于视频推理的工作很快就上传到 Arxiv 上 "占坑" 了,这个工作是关于使用小参数(3B)的 LLM 进行视频推理。

之前那篇 Video-R1 的工作:【论文笔记】【强化微调】T-GRPO:对视频数据进行强化微调-CSDN博客

为什么说是 "占坑" 呢?这篇论文采用 GRPO 作为微调方法,并未说明为什么不采用 T-GRPO,而只是在其第 5 节 Conclusion and Future Work 提了一句当前微调方法有局限,未来慢慢改进。

其原文如下:

Currently, TinyLLaVA-Video-R1 employs the GRPO algorithm for training. However, this approach exhibits notable limitations. To enhance its effectiveness in video reasoning tasks, we plan to refine the algorithm by addressing the key challenges observed in our experiment.

纵观整篇论文,其核心目的是探索小模型的推理能力,而得到的结果是这样的小模型也能很好推理,并且能在强化微调后能比肩 7B 模型。下图就是 Qwen-7B 和强化微调后的 Qwen-3B 的对比实验:

有这篇论文作为依据,后续的研究就可以采用 3B 小模型,也不吃资源算力了。

2. 奖励设置

这篇论文是微调小参数 LLM,用的算法是传统 GRPO,因此方法核心点就在于奖励的设计上了。论文的奖励设计有三点:

  • 格式奖励:格式是否正确
  • 思考奖励:鼓励正确的长思考
  • 准确奖励:回答问题正确给奖励

首先是格式奖励,论文要求 LLM 输出结果得有思考过程 <think> 和输出答案 <answer>,并且每次输出只能有一对 <think></think> 和一对 <answer></answer>,格式正确之后给予 的奖励。

然后是思考奖励,论文鼓励 LLM 进行长文本的思考,<think> 的长度 越长,则奖励越多,最大为 ,但是存在一个上限 ,这是为了防止 LLM 无脑堆文本。思考奖励呈线性,写成公式如下:

论文定义格式奖励包含了思考奖励,也就是说格式奖励的公式如下:

最后是正确性奖励,回答正确给予 的得分,答错不给分。而正确答案的得分 和格式最大得分 是一致的,也就是说 ,这是为了让答案得分和格式得分具有相同的权重。公式如下:

最终的模型奖励如下:

也就是说,当格式且答案正确时,得分是正确性奖励 和格式奖励 的总和;当答案错误时,你的思考过程被试做全错,此时给予惩罚 ,如果你的 <think> 文本越长,惩罚越重;当格式都错误时,给予最大惩罚。

相关推荐
DuHz15 小时前
无线通信与雷达感知融合的波形设计与信号处理——论文阅读(上)
论文阅读·信号处理
DuHz15 小时前
无线通信与雷达感知融合的波形设计与信号处理——论文阅读(下)
论文阅读·汽车·信息与通信·信号处理
张较瘦_2 天前
[论文阅读] AI + 软件工程 | LLM救场Serverless开发!SlsReuse框架让函数复用率飙升至91%,还快了44%
论文阅读·人工智能·软件工程
m0_650108242 天前
InstructBLIP:面向通用视觉语言模型的指令微调技术解析
论文阅读·人工智能·q-former·指令微调的视觉语言大模型·零样本跨任务泛化·通用视觉语言模型
做cv的小昊3 天前
VLM经典论文阅读:【综述】An Introduction to Vision-Language Modeling
论文阅读·人工智能·计算机视觉·语言模型·自然语言处理·bert·transformer
m0_650108243 天前
PaLM-E:具身智能的多模态语言模型新范式
论文阅读·人工智能·机器人·具身智能·多模态大语言模型·palm-e·大模型驱动
m0_650108244 天前
PaLM:Pathways 驱动的大规模语言模型 scaling 实践
论文阅读·人工智能·palm·谷歌大模型·大规模语言模型·全面评估与行为分析·scaling效应
小殊小殊4 天前
【论文笔记】视频RAG-Vgent:基于图结构的视频检索推理框架
论文阅读·人工智能·深度学习
有点不太正常4 天前
《ShadowCoT: Cognitive Hijacking for Stealthy Reasoning Backdoors in LLMs》——论文阅读
论文阅读·大模型·agent安全
小殊小殊4 天前
【论文笔记】大型语言模型的知识蒸馏与数据集蒸馏
论文阅读·人工智能·深度学习