论文略读Fewer Truncations Improve Language Modeling

ICML 2024

1 背景

  • 在传统LLM训练过程中,为了提高效率,通常会将多个输入文档拼接在一起,然后将这些拼接的文档分割成固定长度的序列。
    • ------>会造成一个重大问题------文档截断(document truncation),损害了数据完整性(data integrity)
    • 此外,文档截断减少了每个序列中的上下文量,可能导致下一个词的预测与上文不相关,从而使模型更容易产生幻觉 (hallucination)。
      • (a):将变量定义与使用分割到不同的训练序列
        • ------>使得模型学习到错误的模式,并可能在下游任务中产生幻觉。
      • (b):摘要中的"Monday morning"无法与训练序列中的任何上下文匹配,导致内容失实
        • ------>显著降低模型对上下文信息的敏感度,导致生成的内容与实际情况不符,即所谓的不忠实生成 (unfaithful generation)。
      • (c):阻碍训练期间的知识获取,因为知识在文本中的表现形式通常依赖完整的句子或段落
  • ------>论文提出了最佳适配打包 (Best-fit Packing)
    • 使用长度感知的组合优化技术,有效地将文档打包到训练序列中,从而完全消除不必要的截断。
    • 不仅保持了传统方法的训练效率,而且通过减少数据的片段化,实质性地提高了模型训练的质量
相关推荐
F_D_Z1 分钟前
扩散模型对齐:DMPO 让模型更懂人类偏好
人工智能·扩散模型·kl散度·双阶段训练·散度最小化偏好优化
ezl1fe5 分钟前
第一篇:把任意 HTTP API 一键变成 Agent 工具
人工智能·后端·算法
算家计算10 分钟前
OpenAI推出首款浏览器,能否撼动全球超30亿用户的Chrome?
人工智能·openai·资讯
文火冰糖的硅基工坊11 分钟前
[人工智能-大模型-33]:模型层技术 - 大模型的神经网络架构
人工智能·神经网络·架构
文火冰糖的硅基工坊29 分钟前
[人工智能-大模型-33]:模型层技术概览 - 大模型内部组成与层次调用关系
人工智能
Python算法实战42 分钟前
平安大模型面试题:Self-Attention 原理与多头注意力设计
人工智能·算法·自然语言处理·大模型·面试题
安於宿命43 分钟前
【machine learning】COVID-19 daily cases prediction
人工智能·机器学习
后端小肥肠1 小时前
【n8n入门系列】3 种方法搞定 n8n 生图!最多3步,小白也能学会的自动化教程
人工智能·openai·agent
Python算法实战1 小时前
腾讯送命题:手写多头注意力机制。。。
人工智能·算法·面试·大模型·强化学习
Rock_yzh1 小时前
AI学习日记——PyTorch深度学习快速入门:神经网络构建与训练实战
人工智能·pytorch·python·深度学习·神经网络·学习