三篇论文解决了大型语言模型 (LLM) 的三个不同问题

讨论三篇论文,它们解决了大型语言模型 (LLM) 的三个不同问题类别:

  1. 减少幻觉。Reducing hallucinations.

  2. 增强小型、开放可用模型的推理能力。Enhancing the reasoning capabilities of small, openly available models.

  3. 加深我们对transformer架构的理解,并有可能简化transformer架构。Deepening our understanding of, and potentially simplifying, the transformer architecture.

Fine-tuning Language Models for Factuality

https://arxiv.org/pdf/2311.08401.pdf

这篇文章介绍了一种无需人工标注就可以改进语言模型事实正确性的方法。

主要做法是:

  1. 提出了两种自动估计长文本生成质量的方法:参考知识库一致性测量和模型自信水平测量。

  2. 根据这两种质量估计方法从未标注的数据集中采样优先级对,其中优选分数更高的文本作为preferred response。

  3. 使用Direct Preference Optimization算法对语言模型进行调优,使其在未来生成更多事实正确的文本。

  4. 在两个评价事实正确性的数据集上进行实验,结果表明只使用自动采样的优先级对就可以有效改进模型事实正确性,使错误率比RLHF模型或解码时增强事实正确性的基线方法下降超过50%。

  5. 同时探讨了事实排查参考知识和模型自信的优先级对,以及与其他方法如ITI和DOLA的结合效果。

RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

https://arxiv.org/pdf/2309.00267.pdf

这篇文章主要介绍了使用AI生成反馈(RLAIF)进行强化学习的研究工作,其主要贡献如下:

  1. 该工作证明RLAIF在概括性、有用对话生成和无害对话生成三个文本生成任务上与使用人类反馈(RLHF)取得了相当或更好的表现,这与人类评估员的评价一致。

  2. 它表明,即使AI生成反馈模型的规模与 policy模型一致,RLAIF也可以比仅使用监督学习的基线模型取得更好的效果。这意味着RLAIF可能成为一种自我改进的方法。

  3. 直接使用AI模型直接提供奖励信号,而不需要将AI生成的偏好标签转化为奖励模型,在概括性任务上取得的效果优于前者。

  4. 它对采用不同的提示技巧生成AI标签进行了研究,发现要求AI给出思考过程能够更好地与人类偏好匹配,而采用实例学习效果不一。

  5. 研究了AI生成标签模型规模与标签质量的关系,发现标签质量随模型规模的增大不断提高。

Direct Preference Optimization: Your Language Model is Secretly a Reward Model

https://arxiv.org/pdf/2305.18290.pdf

主要研究直接优化偏好(Direct Preference Optimization,简称DPO),一种不使用强化学习就可以从人类偏好数据直接训练语言模型的简单算法。

文章的主要贡献包括:

  1. 提出了DPO算法,它可以在一个训练步骤内直接优化语言模型来符合人类偏好数据,而无需学习奖励模型或采样模型 policy,大大简化了流程。

  2. 理论分析表明,DPO等价于学习一个以另一个参考模型为基础的奖励函数,但它避免了强化学习中的一些不稳定性问题。

  3. 实验结果表明,在情感处理、总结和单轮对话等任务上,使用规模达到6B参数的语言模型,DPO的效果与强化学习算法如PPO达到或优于PPO,且训练更简单。

  4. DPO算法极其简单直观,只需要一个 classifier 似的二分类损失函数来训练,而无需复杂的强化学习流程,在实践应用中更易实现。

相关推荐
uesowys1 小时前
Apache Spark算法开发指导-Factorization machines classifier
人工智能·算法
人工智能AI技术2 小时前
预训练+微调:大模型的“九年义务教育+专项补课”
人工智能
aircrushin2 小时前
中国多模态大模型历史性突破:智源Emu3自回归统一范式技术深度解读
人工智能
Lsx_2 小时前
前端视角下认识 AI Agent 和 LangChain
前端·人工智能·agent
aiguangyuan2 小时前
使用LSTM进行情感分类:原理与实现剖析
人工智能·python·nlp
Yeats_Liao2 小时前
评估体系构建:基于自动化指标与人工打分的双重验证
运维·人工智能·深度学习·算法·机器学习·自动化
深圳市恒星物联科技有限公司2 小时前
水质流量监测仪:复合指标监测的管网智能感知设备
大数据·网络·人工智能
断眉的派大星2 小时前
均值为0,方差为1:数据的“标准校服”
人工智能·机器学习·均值算法
A尘埃2 小时前
电子厂PCB板焊点缺陷检测(卷积神经网络CNN)
人工智能·神经网络·cnn
Tadas-Gao2 小时前
缸中之脑:大模型架构的智能幻象与演进困局
人工智能·深度学习·机器学习·架构·大模型·llm