文献阅读分享:强化学习与大语言模型结合的推荐系统LEA

标题 期刊 年份
Reinforcement Learning-based Recommender Systems with Large Language Models for State Reward and Action Modeling ACM Symposium on Neural Gaze Detection 2024

🌟 研究背景

在信息过载的时代,推荐系统(RS)成为连接用户与相关内容的桥梁。尤其是基于序列的推荐(Sequential Recommendation),在音乐和视频流媒体服务中显得尤为重要。然而,现有的基于强化学习(RL)的推荐方法在利用历史用户-项目互动数据时,面临如何有效模拟用户反馈的挑战。本文提出了一种利用大型语言模型(LLMs)作为环境(LE)的方法,以增强基于RL的推荐系统。

🔍 相关工作

在推荐系统的研究中,已有工作通过门控循环单元(GRU)、卷积神经网络(CNN)和Transformer等模型进行序列推荐。这些模型主要依赖于监督学习,而自监督强化学习(SSRL)则通过训练RL代理来满足用户期望。然而,如何构建一个提供有意义用户反馈的高质量环境,仍是一个未解决的问题。

🚀 方法介绍

本文的核心在于将LLMs作为环境(LE)来模拟用户行为并为RL推荐系统提供反馈。具体方法如下:

  1. 状态模型(SM):通过对比用户-项目标记交互与正负动作,学习有效的状态表示。
  2. 奖励模型(RM):通过奖励提示,基于用户-项目标记交互和特定动作生成奖励分数。
  3. 正反馈增强(LEA):通过提示LE选择潜在的正反馈,增强有限的离线训练数据。

📊 模型图输入输出转变

模型的输入是用户-项目互动序列,输出是针对每个用户的下一个可能互动的项目。状态模型(SM)将用户的历史互动转换为丰富的状态表示,而奖励模型(RM)则根据这些状态和动作预测奖励。LEA方法进一步通过预测正反馈来增强训练数据。

🧪 实验

实验在两个公开数据集上进行:LFM和Industry。通过比较LEA与传统的RL框架(如SNQN和SA2C),我们发现LEA在多个指标上均显示出优越性。特别是,当结合状态和奖励模型时,性能提升最为显著。

🌈 创新点

  • LLMs作为环境(LE):首次将LLMs应用于模拟用户行为和提供反馈,增强RL推荐系统。
  • 正反馈增强(LEA):提出一种新的方法,通过预测正反馈来丰富离线训练数据,提高模型的泛化能力。
  • 参数效率:通过适配器和指令提示,实现了对LLMs的高效微调,无需大幅增加计算资源。
相关推荐
一只数据集2 分钟前
商超上货人形机器人全身运控数据集分析——Kuavo 5机器人5W型号夹爪末端执行器操作轨迹数据
人工智能·算法·机器人
百沐生物15 分钟前
Respiratory Medicine(IF 4.2)| 重要发现:经验丰富的水肺潜水员对CO₂的通气反应显著降低,运动与低氧均无法改变这一中枢适应!
人工智能
测试员周周17 分钟前
【AI测试功能5】AI功能测试的“黄金数据集“构建指南:从0到1搭建质量评估体系
运维·服务器·开发语言·人工智能·python·功能测试·集成测试
香蕉鼠片19 分钟前
大模型Function Call
人工智能·深度学习·机器学习·ai
飞Link20 分钟前
2026 科研范式转移:闭环生成式 AI 如何独立完成“假设-设计-验证”全流程?
人工智能
AI医影跨模态组学23 分钟前
如何将影像组学与计算病理特征关联肿瘤微环境“反应/荒漠”基质表型建立关联,并进一步解释其与胰腺癌术后早期复发及ECM重塑的机制联系
人工智能·论文·医学·医学影像·影像组学
十有八七24 分钟前
AI Agent的“骨架”之争:四种Harness设计哲学深度解构
前端·人工智能
GEO从入门到精通27 分钟前
2026年GEO课程的学习重点更新了吗?
人工智能·学习·seo·geo·aiseo·市场部
烟台业荣数据科技有限公司28 分钟前
智能建造知识拓展 | AR技术:虚实融合,赋能施工现场
大数据·人工智能·机器人
Kiyra29 分钟前
从上传到可问答:Interview Agent 的知识库 RAG 链路
java·人工智能·后端·spring·职场和发展