三篇论文解决了大型语言模型 (LLM) 的三个不同问题

讨论三篇论文,它们解决了大型语言模型 (LLM) 的三个不同问题类别:

  1. 减少幻觉。Reducing hallucinations.

  2. 增强小型、开放可用模型的推理能力。Enhancing the reasoning capabilities of small, openly available models.

  3. 加深我们对transformer架构的理解,并有可能简化transformer架构。Deepening our understanding of, and potentially simplifying, the transformer architecture.

Fine-tuning Language Models for Factuality

https://arxiv.org/pdf/2311.08401.pdf

这篇文章介绍了一种无需人工标注就可以改进语言模型事实正确性的方法。

主要做法是:

  1. 提出了两种自动估计长文本生成质量的方法:参考知识库一致性测量和模型自信水平测量。

  2. 根据这两种质量估计方法从未标注的数据集中采样优先级对,其中优选分数更高的文本作为preferred response。

  3. 使用Direct Preference Optimization算法对语言模型进行调优,使其在未来生成更多事实正确的文本。

  4. 在两个评价事实正确性的数据集上进行实验,结果表明只使用自动采样的优先级对就可以有效改进模型事实正确性,使错误率比RLHF模型或解码时增强事实正确性的基线方法下降超过50%。

  5. 同时探讨了事实排查参考知识和模型自信的优先级对,以及与其他方法如ITI和DOLA的结合效果。

RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

https://arxiv.org/pdf/2309.00267.pdf

这篇文章主要介绍了使用AI生成反馈(RLAIF)进行强化学习的研究工作,其主要贡献如下:

  1. 该工作证明RLAIF在概括性、有用对话生成和无害对话生成三个文本生成任务上与使用人类反馈(RLHF)取得了相当或更好的表现,这与人类评估员的评价一致。

  2. 它表明,即使AI生成反馈模型的规模与 policy模型一致,RLAIF也可以比仅使用监督学习的基线模型取得更好的效果。这意味着RLAIF可能成为一种自我改进的方法。

  3. 直接使用AI模型直接提供奖励信号,而不需要将AI生成的偏好标签转化为奖励模型,在概括性任务上取得的效果优于前者。

  4. 它对采用不同的提示技巧生成AI标签进行了研究,发现要求AI给出思考过程能够更好地与人类偏好匹配,而采用实例学习效果不一。

  5. 研究了AI生成标签模型规模与标签质量的关系,发现标签质量随模型规模的增大不断提高。

Direct Preference Optimization: Your Language Model is Secretly a Reward Model

https://arxiv.org/pdf/2305.18290.pdf

主要研究直接优化偏好(Direct Preference Optimization,简称DPO),一种不使用强化学习就可以从人类偏好数据直接训练语言模型的简单算法。

文章的主要贡献包括:

  1. 提出了DPO算法,它可以在一个训练步骤内直接优化语言模型来符合人类偏好数据,而无需学习奖励模型或采样模型 policy,大大简化了流程。

  2. 理论分析表明,DPO等价于学习一个以另一个参考模型为基础的奖励函数,但它避免了强化学习中的一些不稳定性问题。

  3. 实验结果表明,在情感处理、总结和单轮对话等任务上,使用规模达到6B参数的语言模型,DPO的效果与强化学习算法如PPO达到或优于PPO,且训练更简单。

  4. DPO算法极其简单直观,只需要一个 classifier 似的二分类损失函数来训练,而无需复杂的强化学习流程,在实践应用中更易实现。

相关推荐
汀、人工智能11 分钟前
AI-Compass LLM训练框架生态:整合ms-swift、Unsloth、Megatron-LM等核心框架,涵盖全参数/PEFT训练与分布式优化
人工智能·分布式·sft·swift·大模型训练
ATM00612 分钟前
开源AI Agent开发平台Dify源码剖析系列(二)
人工智能·开源·dify·源码剖析
ATM0061 小时前
人机协作系列(四)AI编程的下一个范式革命——看Factory AI如何重构软件工程?
人工智能·大模型·agent·人机协作·人机协同
读创商闻2 小时前
极狐GitLab CEO 柳钢——极狐 GitLab 打造中国企业专属 AI 编程平台,引领编程新潮流
人工智能·gitlab
kailp2 小时前
语言模型玩转3D生成:LLaMA-Mesh开源项目
人工智能·3d·ai·语言模型·llama·gpu算力
marteker2 小时前
弗兰肯斯坦式的人工智能与GTM策略的崩溃
人工智能·搜索引擎
无心水2 小时前
大语言模型零样本情感分析实战:无需机器学习训练,96%准确率实现指南
人工智能·机器学习·语言模型
来自于狂人2 小时前
AI大模型训练的云原生实践:如何用Kubernetes指挥千卡集群?
人工智能·云原生·kubernetes
橡晟8 小时前
深度学习入门:让神经网络变得“深不可测“⚡(二)
人工智能·python·深度学习·机器学习·计算机视觉
墨尘游子8 小时前
神经网络的层与块
人工智能·python·深度学习·机器学习