三篇论文解决了大型语言模型 (LLM) 的三个不同问题

讨论三篇论文,它们解决了大型语言模型 (LLM) 的三个不同问题类别:

  1. 减少幻觉。Reducing hallucinations.

  2. 增强小型、开放可用模型的推理能力。Enhancing the reasoning capabilities of small, openly available models.

  3. 加深我们对transformer架构的理解,并有可能简化transformer架构。Deepening our understanding of, and potentially simplifying, the transformer architecture.

Fine-tuning Language Models for Factuality

https://arxiv.org/pdf/2311.08401.pdf

这篇文章介绍了一种无需人工标注就可以改进语言模型事实正确性的方法。

主要做法是:

  1. 提出了两种自动估计长文本生成质量的方法:参考知识库一致性测量和模型自信水平测量。

  2. 根据这两种质量估计方法从未标注的数据集中采样优先级对,其中优选分数更高的文本作为preferred response。

  3. 使用Direct Preference Optimization算法对语言模型进行调优,使其在未来生成更多事实正确的文本。

  4. 在两个评价事实正确性的数据集上进行实验,结果表明只使用自动采样的优先级对就可以有效改进模型事实正确性,使错误率比RLHF模型或解码时增强事实正确性的基线方法下降超过50%。

  5. 同时探讨了事实排查参考知识和模型自信的优先级对,以及与其他方法如ITI和DOLA的结合效果。

RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

https://arxiv.org/pdf/2309.00267.pdf

这篇文章主要介绍了使用AI生成反馈(RLAIF)进行强化学习的研究工作,其主要贡献如下:

  1. 该工作证明RLAIF在概括性、有用对话生成和无害对话生成三个文本生成任务上与使用人类反馈(RLHF)取得了相当或更好的表现,这与人类评估员的评价一致。

  2. 它表明,即使AI生成反馈模型的规模与 policy模型一致,RLAIF也可以比仅使用监督学习的基线模型取得更好的效果。这意味着RLAIF可能成为一种自我改进的方法。

  3. 直接使用AI模型直接提供奖励信号,而不需要将AI生成的偏好标签转化为奖励模型,在概括性任务上取得的效果优于前者。

  4. 它对采用不同的提示技巧生成AI标签进行了研究,发现要求AI给出思考过程能够更好地与人类偏好匹配,而采用实例学习效果不一。

  5. 研究了AI生成标签模型规模与标签质量的关系,发现标签质量随模型规模的增大不断提高。

Direct Preference Optimization: Your Language Model is Secretly a Reward Model

https://arxiv.org/pdf/2305.18290.pdf

主要研究直接优化偏好(Direct Preference Optimization,简称DPO),一种不使用强化学习就可以从人类偏好数据直接训练语言模型的简单算法。

文章的主要贡献包括:

  1. 提出了DPO算法,它可以在一个训练步骤内直接优化语言模型来符合人类偏好数据,而无需学习奖励模型或采样模型 policy,大大简化了流程。

  2. 理论分析表明,DPO等价于学习一个以另一个参考模型为基础的奖励函数,但它避免了强化学习中的一些不稳定性问题。

  3. 实验结果表明,在情感处理、总结和单轮对话等任务上,使用规模达到6B参数的语言模型,DPO的效果与强化学习算法如PPO达到或优于PPO,且训练更简单。

  4. DPO算法极其简单直观,只需要一个 classifier 似的二分类损失函数来训练,而无需复杂的强化学习流程,在实践应用中更易实现。

相关推荐
云天徽上11 分钟前
【数据可视化-27】全球网络安全威胁数据可视化分析(2015-2024)
人工智能·安全·web安全·机器学习·信息可视化·数据分析
ONEYAC唯样17 分钟前
“在中国,为中国” 英飞凌汽车业务正式发布中国本土化战略
大数据·人工智能
mozun202022 分钟前
产业观察:哈工大机器人公司2025.4.22
大数据·人工智能·机器人·创业创新·哈尔滨·名校
-一杯为品-25 分钟前
【深度学习】#9 现代循环神经网络
人工智能·rnn·深度学习
硅谷秋水27 分钟前
ORION:通过视觉-语言指令动作生成的一个整体端到端自动驾驶框架
人工智能·深度学习·机器学习·计算机视觉·语言模型·自动驾驶
Java中文社群1 小时前
最火向量数据库Milvus安装使用一条龙!
java·人工智能·后端
豆芽8191 小时前
强化学习(Reinforcement Learning, RL)和深度学习(Deep Learning, DL)
人工智能·深度学习·机器学习·强化学习
山北雨夜漫步1 小时前
机器学习 Day14 XGboost(极端梯度提升树)算法
人工智能·算法·机器学习
yzx9910131 小时前
集成学习实际案例
人工智能·机器学习·集成学习
CodeJourney.1 小时前
DeepSeek与WPS的动态数据可视化图表构建
数据库·人工智能·信息可视化