推荐大模型系列-NoteLLM-2: Multimodal Large Representation Models for Recommendation(三)

目录

一、训练细节

二、端到端MLRM细节

三、Qwen-VL-Chat的显著性分数分析

传统MLLMs与MLRMs的适配问题

四、零样本多模态表示性能

[五、长查询 与 目标对 模型性能评估](#五、长查询 与 目标对 模型性能评估)


上一篇文章:推荐大模型系列-NoteLLM-2: Multimodal Large Representation Models for Recommendation(二)

一、训练细节

所有基于大语言模型(LLM)的模型,其详细训练超参数均列于表8中。此外,训练过程中采用DeepSpeed [37]及零冗余优化器(ZeRO)[38]的第三阶段技术。

二、端到端MLRM细节

表9提供了端到端MLRM的详细信息。同时,为便于理解Tomato模型的特性,此处详述其持续预训练细节。Tomato基于LLaMA 2 [47]架构,原模型仅支持英文。由于目标平台面向中文市场,需增强LLaMA 2的中文理解能力,因此在持续预训练中进行了以下改进:

  • 词表扩展:将原始词表从32,000个词元扩展至49,216个,新增的17,216个词元主要为中文词汇。
  • 预训练数据:数据来源包含三部分:中文语料、英文语料及平台专有数据。中文语料采用开源数据集如万卷[18]和悟道[53],总量约2T词元;为保持英文能力,引入RedPajama[9]数据;此外,整合了平台内高质量笔记数据30B词元,以更好地学习平台数据特性。

Tomato在提升中文理解能力的同时,英文能力与原始LLaMA 2模型相当。需说明的是,预训练细节与本文贡献无关,本文方法基于持续预训练后的模型实现。这也体现了NoteLLM-2方法的优势:在微调前可针对不同模态对基座模型进行个性化增强。

三、Qwen-VL-Chat的显著性分数分析

在Qwen-VL-Chat中观察到独特的显著性分数模式(如图6所示)。该模型的主要信息流为文本形式,所有层的数值均高于0.8。这一现象源于大量视觉嵌入(Qwen-VL-Chat中为256维)输入到大型语言模型(LLMs),导致图像信息流的平均显著性降低。

传统MLLMs与MLRMs的适配问题

上述结果表明,传统多模态大语言模型(MLLMs)无法直接适用于多模态大规模表征模型(MLRMs)。为适配MLRMs,需通过增加信息流密度的方式调整MLLMs的结构设计。

四、零样本多模态表示性能

本节以零样本方式探索多模态大语言模型(MLLMs)在多模态I2I推荐任务中的表示能力。实验选取了四种主流MLLMs:BLIP-2 [27]、LLaVA-1.5 [30]、Qwen-VL [3]和Qwen-VL-Chat [3],同时对比了基线方法BM25 [39]、Qwen-Chat [2]以及基于LLaMA 2 [47]持续预训练的纯文本模型Tomato(该模型缺乏视觉感知能力,但使用了平台数据训练)。模型细节见表7。为分析MLLMs对不同模态的表示能力,测试时分别独立输入图像和文本。

实验结果见表10,主要发现如下:现有MLLMs的零样本表示性能均逊于BM25,表明尽管MLLMs具备优秀的视觉理解能力,但其零样本多模态表示能力仍有不足,原因在于MLLMs采用语言建模损失训练,与表示任务目标不匹配,因此需要额外训练以实现任务对齐。

多数情况下,MLLMs对多模态输入的表示效果优于单模态,证明其能有效提取并融合多模态信息。同时,大多数MLLMs对文本信息的表示能力优于图像信息,这与模型参数主要源于纯文本LLMs有关,且实验场景中文本笔记比图像更具区分性。

值得注意的是,纯文本LLMs在不接收任何图像输入时,性能仍可与MLLMs相当。

五、长查询 与 目标对 模型性能评估

为全面评估方法的有效性,针对长查询与长目标对进行了测试。长文本定义为超过165个标记(约占测试文本的10%)的样本。测试数据集包含2,228个长查询对和2,177个长目标对。结果如表11所示。

由于大语言模型(LLMs)出色的长上下文理解能力,长文本对的性能显著优于整体数据,因长文本提供了更丰富的信息。此外,相比基础方法,所提方法在长文本对上进一步提升了效果,这表明增强对视觉信息的关注对长文本处理同样重要。


好啦,关于notellm-2这篇文章已经基本完成讲解,之后会已这篇多模态大模型展开,去调研相关paper,并进行路径整理,敬请期待~

相关推荐
EdisonZhou8 小时前
MAF快速入门(12)主工作流+子工作流
llm·aigc·agent·.net core
人工干智能17 小时前
LangChain 中的「工具(Tool)」和「工具包(Toolkit)」漫谈
langchain·llm
山顶夕景1 天前
【VLM】Format Decoupled Reinforcement Learning for Document OCR
大模型·llm·ocr·多模态·文档智能·vlm
用什么都重名1 天前
「实战指南」使用 Python 调用大模型(LLM)
python·大模型·llm·api调用
mumu-hn1 天前
浅说LLM-Agent(大模型-智能体)
人工智能·llm·agent
人工干智能2 天前
LangChain的提示模板template中的{tool_names}和{agent_scratchpad}
langchain·llm
一个处女座的程序猿2 天前
Transformer 之LCW/TTT-E2E:《End-to-End Test-Time Training for Long Context》翻译与解读
llm·transformer·lcw·ttt-e2e
utmhikari2 天前
【极客日常】快速上手复杂后端项目开发的经验
ai·llm·知识库·系统设计·后端开发·rag
沛沛老爹2 天前
Web转AI架构篇:Agent Skills vs MCP-混合架构设计模式实战指南
java·前端·人工智能·架构·llm·rag
AMiner:AI科研助手2 天前
NeurIPS 2025 Spotlight |新国立联合港中文发布JavisGPT:终结默片时代!
扩散模型·多模态大模型·浙江大学·港中文·音频视频生成模型