强化学习

聚客AI36 分钟前
人工智能·llm·强化学习
🧩万亿级Token训练!解密大模型预训练算力黑洞与RLHF对齐革命本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在聚客AI学院。人工智能大模型(如GPT、LLaMA等)已成为推动AI产业变革的核心引擎。其价值在于通过海量数据预训练提取通用知识,大幅提升模型泛化能力,降低微调成本。然而,大模型的开发涉及复杂的训练流程、高效的推理优化、激烈的市场竞争以及底层基础设施的严峻挑战。今天我将从大模型训练层、推理层、市场洞察及基础设施层四个维度,系统解析技术细节,希望对你们有所帮助,记得点个小红心支持一下。
nju_spy1 天前
强化学习·南京大学·alphago·蒙特卡洛树搜索·策略网络·价值网络·随机梯度算法
王树森深度强化学习DRL(三)围棋AlphaGo+蒙特卡洛深度强化学习(5_5):AlphaGo_哔哩哔哩_bilibili蒙特卡洛 Monte Carlo_哔哩哔哩_bilibili
DuanGe6 天前
强化学习
Chrome浏览器页面中跳转到IE浏览器页面本文所示脚本文件:openIE.zip使用管理员权限运行 openIE.reg 文件,将 openIE 协议导入注册表使其生效。
阿里云大数据AI技术8 天前
人工智能·llm·强化学习
基于PAI-ChatLearn的GSPO强化学习实践近期,阿里通义千问团队创新性提出了 GSPO 算法,PAI-ChatLearn 框架第一时间支持并复现了GSPO的强化学习训练过程,本文将介绍在 PAI 平台复现 GSPO 的最佳实践。
代码哲学系9 天前
java·强化学习
第一阶段:Java基础入门④Java核心API💡 学习目标:掌握Java核心API的使用,包括String类、包装类、日期时间API、常用工具类等
防搞活机10 天前
笔记·深度学习·机器学习·强化学习
强化学习笔记:从Q学习到GRPO推荐学习huggingface的强化学习课程,全面了解强化学习的发展史。 以下是个人笔记,内容不一定完整,有些是个人理解。
我爱C编程12 天前
matlab·强化学习·qlearning·三维路径规划
基于Qlearning强化学习的水下无人航行器三维场景路径规划与避障系统matlab性能仿真目录1.引言2.算法仿真效果演示3.数据集格式或算法参数简介4.算法涉及理论知识概要4.1 强化学习基本框架
有梦想的攻城狮12 天前
强化学习·q-learning
Q-Learning详解:从理论到实践的全面解析Q-Learning是一种无模型(Model-Free)的强化学习算法,属于**基于值迭代(Value Iteration)的方法。其核心目标是通过构建Q表(状态-动作值函数表)来存储环境认知,并指导智能体在每个状态下选择最优动作。Q-Learning采用时间差分(TD)**方法,融合了蒙特卡洛的样本效率和动态规划的数学严谨性,适用于未知环境的决策优化问题。
威化饼的一隅17 天前
大模型·llm·强化学习·rlhf·dpo
【多模态】DPO学习笔记RLHF需要使用人标注的偏好数据对,先训练一个reward model,然后再让reward model和LLM做强化学习 【1】SFT训练LLM: 使用目标任务的训练数据训练得到的模型记为 π S F T \pi^{SFT} πSFT 【2】训练reward model: 使用目标任务的另一份数据 x x x输入 π S F T \pi^{SFT} πSFT,每份数据得到2个输出,记为 ( y 1 , y 2 ) ∼ π S F T ( y ∣ x ) (y_1,y_2) \sim \pi^{SFT}(
雪碧聊技术22 天前
监督学习·强化学习·无监督学习·半监督学习·机器学习的算法
机器学习的算法有哪些?🌟 欢迎来到AI奇妙世界! 🌟亲爱的开发者朋友们,大家好!👋我是人工智能领域的探索者与分享者,很高兴在CSDN与你们相遇!🎉 在这里,我将持续输出AI前沿技术、实战案例、算法解析等内容,希望能和大家一起学习、交流、成长!💡
山顶夕景23 天前
大模型·llm·agent·强化学习·智能体
【LLM】Kimi-K2模型架构(MuonClip 优化器等)大模型开源进展,kimi-k2量化版本发布,Unsloth 量化的 Kimi-K2 放出了,包括从 1.8bit 的 UD_IQ1 到 UD-Q5_K_XL等版本:https://github.com/unslothai/llama.cpp, 量化模型地址:https://huggingface.co/unsloth/Kimi-K2-Instruct-GGUF/tree/main
ziix1 个月前
人工智能·深度学习·神经网络·强化学习·图神经网络·gnn
多源信息融合智能投资【“图神经网络+强化学习“的融合架构】【低配显卡正常运行】本模型采用"图神经网络+强化学习"的融合架构,核心思路是通过多源信息融合进行智能投资决策,并实现决策可解释性。架构设计分为三个关键层次:
陈晨辰熟稳重1 个月前
云计算·强化学习·资源调度
20250704-基于强化学习在云计算环境中的虚拟机资源调度研究随着云计算规模的持续扩大,数据中心虚拟机资源调度面临动态负载、异构资源适配及多目标优化等挑战。传统启发式算法在复杂场景下易陷入局部最优,而深度强化学习(DRL)凭借序贯决策能力为该问题提供了新路径。本研究以动态多目标组合优化理论为基础,结合CloudSimPy仿真框架与TensorFlow,构建“仿真-训练-验证”闭环调度系统,重点设计动态加权多目标奖励函数、时序建模网络及多进程并行训练策略,支持非DAG任务、长周期分块任务等复杂场景。实验表明,DRL算法在总完成时间(Makespan)、平均完成时间(A
阿里云大数据AI技术1 个月前
大数据·人工智能·强化学习
训练效率提升100%!阿里云后训练全栈解决方案发布实录演讲人:魏博文(阿里云计算平台大数据AI解决方案总监)演讲主题:阿里云后训练解决方案活动:甲子光年围炉夜话-后训练技术闭门会
静心问道1 个月前
人工智能·机器学习·强化学习·ai技术应用
OAIF:基于在线 AI 反馈的语言模型直接对齐温馨提示: 本篇文章已同步至"AI专题精讲" OAIF:基于在线 AI 反馈的语言模型直接对齐直接来自偏好(DAP)的对齐方法(如 DPO)近年来作为人类反馈强化学习(RLHF)的高效替代方案出现,这些方法无需训练单独的奖励模型。然而,DAP 方法中使用的偏好数据集通常是在训练前收集的,并且在训练过程中不会更新,因此反馈是完全离线的。此外,这些数据集中的回答往往来自于与当前被对齐模型不同的语言模型,而由于模型在训练过程中不断变化,对齐阶段不可避免地是离策略(off-policy)的。
静心问道1 个月前
人工智能·强化学习·ai技术应用
CPO:对比偏好优化—突破大型语言模型在机器翻译中的性能边界温馨提示: 本篇文章已同步至"AI专题精讲" CPO:对比偏好优化—突破大型语言模型在机器翻译中的性能边界
许愿与你永世安宁1 个月前
人工智能·算法·强化学习·梯度下降·随机近似
强化学习 (11)随机近似有两种方法。第一种方法很直接,即收集所有样本后计算平均值;但这种方法的缺点是,若样本是在一段时间内逐个收集的,我们必须等到所有样本都收集完毕。第二种方法可避免此缺点,因为它以增量迭代的方式计算平均值,来几个就计算几个,不需要等了。
辰尘_星启1 个月前
人工智能·深度学习·机器学习·强化学习·梯度下降·反向传播
【机器学习】反向传播如何求梯度(公式推导)前期学习深度学习的时候,很多概念都是一笔带过,只是觉得它在一定程度上解释得通就行,但是在强化学习的过程中突然意识到,反向传播求梯度其实并不是一件简单的事情,这篇博客的目的就是要讲清楚反向传播是如何对特定的某一层求梯度,进而更新其参数的
前端工作日常1 个月前
强化学习
我学习到的“伪勤奋”为什么熬夜刷题却考不过同桌?因为真正的学习高手都在“偷懒”。✅ 真勤奋:主动找难题做(即使会卡壳) ❌ 伪勤奋:重复抄写已掌握的内容
大千AI助手1 个月前
人工智能·深度学习·算法·机器学习·强化学习·rlhf·人类反馈强化学习
RLHF:人类反馈强化学习 | 对齐AI与人类价值观的核心引擎本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!