论文笔记-CIKM2024-LLM-CF

论文笔记-CIKM2024-Large Language Models Enhanced Collaborative Filtering

LLM-CF: 大语言模型增强协同过滤

论文下载链接: Large Language Models Enhanced Collaborative Filtering

代码: LLM-CF

摘要

现有的研究主要利用大语言模型(LLMs)生成知识丰富的文本,或利用基于大语言模型的嵌入作为特征来改善推荐系统。虽然LLM中广泛的世界知识通常对推荐系统有益,但这种应用只能将有限数量的用户和项目作为输入,而不能充分利用协同过滤信息。

本文受LLM的上下文学习和思维链推理CoT的启发,提出了大语言模型增强协同过滤框架LLM-CF,该框架将LLM的世界知识和推理能力提炼到协同过滤中。此外,本文还探索了一种简洁高效的指令微调方法,该方法提高了LLM的推荐能力,同时保留了其通用功能。

1.引言

当前的大模型推荐主要分为两类:LLMs作为推荐系统和LLM增强的推荐系统,本文主要关注LLM增强的推荐系统。

本文提出的LLM-CF如图1所示,分为两部分:

  • 离线服务部分:微调LLM以增强其推荐能力,生成带有协同过滤信息的链式推理,并构建上下文链式推理数据集。

  • 在线服务部分:检索上下文链式推理示例,学习世界知识和推理引导的协同过滤特征,并使用该特征来增强现有的推荐系统。

主要贡献如下:

  1. 本文是使用基于LLM的世界知识和推理来指导协同过滤特征的开创性工作,增强了传统的推荐模型。

  2. 提出的LLM-CF受LLM的上下文学习和思维链推理的启发,将LLM的世界知识和推理能力以上下文思维链的方式有效地提炼到传统的推荐模型中。

  3. LLM-CF将LLM生成与推荐系统的在线服务解耦,与现有的LLM增强RSs相比效率更高。

2.前言

本文将推荐任务定义为使用多字段分类数据的二分类问题。数据集 D = { ( x n , y n ) } n = 1 N D = \{(x_n, y_n)\}_{n=1}^N D={(xn,yn)}n=1N 包含推荐特征 x i x_i xi 和二元标签 y i y_i yi 的配对。推荐特征包括用户特征(例如,用户 ID、性别、年龄)和物品特征(例如,物品 ID、品牌)。标签 y i y_i yi 表示点击(1)或未点击(0)。目标是学习一个带有参数 θ \theta θ 的函数 f ( ⋅ ) f(\cdot) f(⋅),以预测每个 x i x_i xi 的点击概率 y i ^ = f ( x i ; θ ) \hat{y_i} = f(x_i; \theta) yi^=f(xi;θ)。

为了满足大语言模型的要求,本文遵循指令提示的要求,该提示涉及从推荐特征 x i x_i xi 中提取文本格式的推荐特征 x i t x_i^t xit,并将其组织为"任务指令"。该指令指导LLM判断用户是否可能对目标物品感兴趣,基于用户的历史交互和其他用户特征。LLM生成二元响应"是"或"否",其中"是"表示积极交互(点击),而"否"表示消极交互(未点击)。

LLM-CF的概述如图2所示。提议的LLM-CF可以分解为离线服务部分(§ 3)和在线服务部分(§ 4)。

3.LLM-CF离线服务

LLM-CF的离线服务部分包括以下流程:

  • RecGen-LLaMA的训练:提出一种简洁且高效的全参数指令微调方法,该方法将推荐数据与一般指令微调数据结合,优化了模型的一般能力和推荐能力之间的平衡。通过将此方法应用于广泛使用的LLaMA2,训练RecGen-LLaMA,实现了一般能力和推荐能力之间的最佳平衡。

  • CoT推理生成 :对于推荐数据 ( x i , y i ) ∈ D (x_i, y_i) \in D (xi,yi)∈D,设计了一个zero-shot CoT提示,该提示将用户-物品交互分解并重新构建,进而引导RecGen-LLaMA根据推荐特征的文本表示 x t x_t xt 生成CoT推理 c c c。这些 { c 1 , ... , c m , ... , c M } \{c_1, \ldots, c_m, \ldots, c_M\} {c1,...,cm,...,cM} 以及原始推荐数据共同构成了上下文CoT数据集 C = { ( x m , c m , y m ) } m = 1 M C = \{(x_m, c_m, y_m)\}_{m=1}^M C={(xm,cm,ym)}m=1M。

4.LLM-CF在线服务

LLM-CF的离线服务部分包括以下流程:

  • 上下文CoT示例检索 :检索过程涉及寻找与当前推荐数据相似的前 K K K 个历史推荐示例,以提供明确的协同过滤信息。这包括从 C C C 中识别出 I i = { ( x k , c k , y k ) } k = 1 K I_i = \{(x_k, c_k, y_k)\}_{k=1}^K Ii={(xk,ck,yk)}k=1K,这些推荐数据与当前推荐数据相似,并且包含了包含世界知识和协同过滤信息的链式推理 c k c_k ck。

  • 上下文链式推理(ICT)模块 :受到 LLM 中上下文学习和链式推理成功的启发,将 I i I_i Ii 作为上下文链式推理示例,将 x i x_i xi 作为查询。通过使用变换器解码器层进行上下文链式推理学习,学习世界知识和推理引导的协同过滤特征 w i w_i wi,以与模型无关的方式增强基础推荐模型。

  • 训练:在训练阶段,本文为上下文示例中的链式推理设计了重构损失,以进一步增强 ICT 模块生成的协同过滤特征中包含的世界知识和推理能力。

5.实验

5.1实验设置

数据集:Amazon的三个子集Sports & Outdoors, Beauty, 和Toys & Games。

基线:DeepFM、xDeepFM、AutoInt、DCNv1、DCNv2和 DIN。

评估指标:AUC、LogLoss和 RelaImpr。

5.2实验结果

5.2.1CTR推荐

结论:

  1. LLM-CF在真实世界数据集上的所有评估指标上均优于相应的基础模型。

  2. LLM-CF的表现优于其他利用LLMs来增强推荐模型的框架(即 KAR 和 KD)。与LLM-CF相比,KAR忽视了协同过滤信息的重要性,仅考虑当前用户和物品特征来增强推荐模型,并且未使用经过推荐数据微调的LLM。KD的次优表现主要是因为LLM的训练目标是对所有标记使用交叉熵损失,而基础推荐训练主要涉及二元交叉熵损失,导致优化目标不一致。

5.2.2检索任务

LLM-CF是多功能的,不仅适用于排名阶段的模型,也适用于检索阶段的模型。本节对检索模型(如 SASREC、YoutubeDNN、GRU4REC和 SRGNN)应用了LLM-CF,并在四个排名指标上实验验证了其有效性。

结论:LLM-CF 提升了基础检索模型的性能,进一步验证了通过世界知识和推理增强的协同过滤特征的多功能性。

5.3消融实验

结论:

  1. 移除CoT推理后,推荐性能显著下降,这表明CoT推理在为协同过滤特征提供世界知识和推理方面的有效性。

  2. 用原始LLaMA2-7B-chat替换RecGen-LLaMA来生成CoT推理,推荐性能呈下降趋势,突出表明在增强传统推荐模型时,有必要提升LLM的推荐能力。

  3. 在ICT模块中用均值池化替换变换器解码器层后,推荐性能明显下降,强调了使用变换器解码器层进行上下文CoT示例学习的重要性。

  4. 移除文本特征导致性能略微下降,但变化不显著,这表明文本特征在框架中的作用有限。

6.结论

本文提出了大语言模型增强的协同过滤框架LLM-CF,该框架将大型语言模型的世界知识和推理能力融入推荐系统中。LLM-CF利用LLM的世界知识和推理,特别是通过上下文链式推理模块,来增强推荐系统中的协同过滤。LLM-CF的关键贡献在于有效地将 LLM 的能力提炼到推荐系统中,实现推荐准确性与操作效率的平衡。在多个数据集上的实验表明,LLM-CF在排名和检索任务中显著优于传统推荐模型,验证了通过 LLM-CF将LLM结合推荐系统的有效性。

相关推荐
清风吹过19 小时前
LSTM新架构论文分享6:LSTM+Transformer融合
论文阅读·人工智能·深度学习·神经网络·lstm·transformer
DuHz1 天前
汽车角雷达波形设计与速度模糊解决方法研究——论文阅读
论文阅读·物联网·算法·汽车·信息与通信·信号处理
有点不太正常1 天前
Differentially Private Synthetic Text Generation for RAG——论文阅读
论文阅读·大模型·llm·rag
DuHz1 天前
基于多普勒频率和距离变化率联合测量的增强型速度估计方法——论文阅读
论文阅读·目标检测·汽车·信息与通信·信号处理
墨绿色的摆渡人1 天前
论文笔记(九十三)ManipulationNet: Benchmarking
论文阅读
bylander1 天前
【论文阅读】REACT: SYNERGIZING REASONING AND ACTING IN LANGUAGE MODELS
论文阅读·语言模型·智能体
吃吃今天努力学习了吗2 天前
【论文阅读】Segment Any 3D Gaussians
论文阅读·3d·3dgs·三维分割
MoyiTech2 天前
【论文阅读】LANGUAGE MODELS CAN LEARN FROM VERBAL FEEDBACK WITHOUT SCALAR REWARDS
论文阅读·人工智能·语言模型
红苕稀饭6662 天前
LLaVA-OneVision论文阅读
论文阅读
CV-杨帆3 天前
论文阅读:arxiv 2025 Scaling Laws for Differentially Private Language Models
论文阅读·人工智能·语言模型