rlhf

亚里随笔2 小时前
人工智能·机器学习·语言模型·自然语言处理·llm·rlhf
稳定且高效:GSPO如何革新大型语言模型的强化学习训练?本文将介绍Group Sequence Policy Optimization (GSPO),一种用于训练大型语言模型的稳定、高效且性能优异的强化学习算法。与之前采用token级重要性比率的算法不同,GSPO基于序列似然定义重要性比率,并执行序列级裁剪、奖励和优化,在Qwen3模型训练中取得了显著效果。
威化饼的一隅13 天前
大模型·llm·强化学习·rlhf·dpo
【多模态】DPO学习笔记RLHF需要使用人标注的偏好数据对,先训练一个reward model,然后再让reward model和LLM做强化学习 【1】SFT训练LLM: 使用目标任务的训练数据训练得到的模型记为 π S F T \pi^{SFT} πSFT 【2】训练reward model: 使用目标任务的另一份数据 x x x输入 π S F T \pi^{SFT} πSFT,每份数据得到2个输出,记为 ( y 1 , y 2 ) ∼ π S F T ( y ∣ x ) (y_1,y_2) \sim \pi^{SFT}(
汀、人工智能1 个月前
rlhf·大模型微调·大模型部署·大模型量化技术
AI-Compass宝藏资源库:构建最全面的AI学习与实践生态,服务AI全群体AI-Compass将为你和社区提供在AI技术海洋中航行的方向与指引。无论你是刚踏入AI领域的初学者,还是寻求技术突破的进阶开发者,都能在这里找到通往AI各大技术方向的清晰路径和实践指南。作为一个全面覆盖人工智能技术栈的综合性开源项目,AI-Compass 不仅仅是一个简单的资源收集库,更是一个经过精心策划和系统化组织的AI学习生态系统。我们深度整合了从基础理论到前沿应用的完整知识体系,涵盖大语言模型、多模态AI、机器学习、深度学习、计算机视觉、自然语言处理、推荐系统、强化学习等核心技术领域,以及RAG、
大千AI助手1 个月前
人工智能·深度学习·算法·机器学习·强化学习·rlhf·人类反馈强化学习
RLHF:人类反馈强化学习 | 对齐AI与人类价值观的核心引擎本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
亚里随笔1 个月前
人工智能·llm·大语言模型·rlhf
L0:让大模型成为通用智能体的强化学习新范式在AI智能体研究领域,如何让大语言模型高效完成多轮、长周期任务仍是难题。本文将解读论文L0,其提出的端到端训练 pipeline 与 NB-Agent 架构,通过强化学习显著提升模型在问答任务上的表现,为通用智能体发展提供新思路。
阿丢是丢心心3 个月前
chatgpt·微调·强化学习·rlhf
【从0到1搞懂大模型】chatGPT 中的对齐优化(RLHF)讲解与实战(9)chatgpt系列模型演进的重要节点包含下面几个模型(当然,这两年模型发展太快了,4o这些推理模型我就先不写了) (Transformer) → GPT-1 → GPT-2 → GPT-3 → InstructGPT/ChatGPT(GPT-3.5) → GPT-4 下面介绍一下各个模型之前的重点差异
亚里随笔3 个月前
人工智能·llm·rlhf
Tool-Star新突破!RL赋能LLM多工具协同推理,性能全面超越基线方法在大语言模型(LLM)推理能力快速发展的背景下,如何让模型高效调用多种外部工具进行协同推理成为新挑战。本文提出的Tool-Star框架,通过创新的数据合成与强化学习策略,显著提升了模型在复杂推理任务中的表现,为多工具集成推理开辟了新路径。
亚里随笔3 个月前
人工智能·架构·大语言模型·rlhf·推理加速
StreamRL:弹性、可扩展、异构的RLHF架构大语言模型(LLMs)的强化学习(RL)训练正处于快速发展阶段,但现有架构存在诸多问题。本文介绍的StreamRL框架为解决这些难题而来,它通过独特设计提升了训练效率和资源利用率,在相关实验中表现优异,想知道它是如何做到的吗?快来一探究竟!
胡攀峰4 个月前
人工智能·大模型·llm·sft·强化学习·rlhf·指令微调
第12章 微调生成模型在本章中,我们将以一个预训练文本生成模型为例,详细讲解微调(fine-tuning)的完整流程。微调是生成高质量模型的关键步骤,也是我们工具包中用于将模型适配到特定预期行为的重要工具。通过微调,我们可以让模型适配特定的数据集或领域。
kngines5 个月前
人工智能·线性代数·大语言模型·概率论·强化学习·rlhf
从零构建大语言模型全栈开发指南:第一部分:数学与理论基础-1.1.2核心数学基础:线性代数、概率论与梯度优化👉 点击关注不迷路 👉 点击关注不迷路 👉 点击关注不迷路线性代数是描述高维数据与模型结构的核心工具,其核心概念包括:
winner88816 个月前
大模型·llm·sft·llama·rlhf·cot·大模型综述
大模型综述一镜到底(全文八万字) ——《Large Language Models: A Survey》论文链接:https://arxiv.org/abs/2402.06196摘要:自2022年11月ChatGPT发布以来,大语言模型(LLMs)因其在广泛的自然语言任务上的强大性能而备受关注。正如缩放定律所预测的那样,大语言模型通过在大量文本数据上训练数十亿个模型参数来获得通用语言理解和生成能力。大语言模型的研究领域虽然非常新,但在许多不同方面都在迅速发展。在本文中,我们回顾了一些最杰出的大语言模型,包括三个流行的大语言模型家族(GPT、LLaMA、PaLM),讨论了它们的特点、贡献和局限性。我们还概述了
BQW_8 个月前
llm·强化学习·rlhf·偏好对齐·o1模型
【偏好对齐】PRM应该奖励单个步骤的正确性吗?论文地址:《Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning》
v_JULY_v10 个月前
rlhf·cot·openai o1·mcst·o1复现·openai o1原理
一文通透OpenAI o1:从CoT、Self-Correct/STaR、Self-play RL、MCST等技术细节到工程复现注意,本文自10.12日起,正在每天更新的过程中..可能是去年写或讲的关于ChatGPT原理的文章和课程,影响力太大了
SpikeKing1 年前
人工智能·深度学习·语言模型·rlhf·alignment·dpo·instructgpt
LLM - 理解 多模态大语言模型(MLLM) 的 对齐微调(Alignment) 与相关技术 (五)欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142354652
Nicolas8931 年前
gpt·chatgpt·大模型·sft·强化学习·rlhf·人类反馈
【大模型理论篇】GPT系列预训练模型原理讲解GPT的全称是Generative Pre-Trained Transformer,以Transformer为基础模型(可以看Transformer的原理解析),先后迭代了GPT-1【1】,GPT-2【2】,GPT-3【3】、GPT3.5(InstructGPT)【10】、GPT4。参考技术细节的公开程度,本篇文章主要关注前四个版本,重点将会讲解前四种模型的演变趋势和各自特点。基于文本预训练的GPT-1,GPT-2,GPT-3三代模型采用的是同种架构,即以Transformer为核心结构的模型,不同的是模
HuggingFace1 年前
rlhf·深度强化学习
将强化学习重新引入 RLHF我们很高兴在 TRL 中介绍 RLOO (REINFORCE Leave One-Out) 训练器。作为一种替代 PPO 的方法,RLOO 是一种新的在线 RLHF 训练算法,旨在使其更易于访问和实施。特别是, RLOO 需要的 GPU 内存更少,并且达到收敛所需的挂钟时间也更短。如下面的图表所示:
段智华1 年前
rlhf·llama3·raif
Llama模型家族之RLAIF 基于 AI 反馈的强化学习(三) RLAIF 的工作原理基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华1 年前
云计算·llama·aws·rlhf·llama3
大模型微调之 在亚马逊AWS上实战LlaMA案例(六)大模型微调之 在亚马逊AWS上实战LlaMA案例(六)可以使用 SageMaker Python SDK 微调 Llama 2 模型。以下是在数据集上微调 Llama 2 7B 的示例代码:
坐望云起1 年前
人工智能·llm·大语言模型·rlhf·rlaif
大语言模型微调过程中的 RLHF 和 RLAIF 有什么区别?目前想要深入挖掘大型语言模型(LLM)的全部潜力需要模型与我们人类的目标和偏好保持一致。从而出现了两种方法:来自人类反馈的人力强化学习(RLHF)和来自人工智能反馈的人工智能驱动的强化学习(RLAIF)。两者都利用强化学习(RL)中的反馈循环来引导大语言模型接近并实现人类意图,但这两种方法的机制和含义却截然不同。