论文略读Fewer Truncations Improve Language Modeling

ICML 2024

1 背景

  • 在传统LLM训练过程中,为了提高效率,通常会将多个输入文档拼接在一起,然后将这些拼接的文档分割成固定长度的序列。
    • ------>会造成一个重大问题------文档截断(document truncation),损害了数据完整性(data integrity)
    • 此外,文档截断减少了每个序列中的上下文量,可能导致下一个词的预测与上文不相关,从而使模型更容易产生幻觉 (hallucination)。
      • (a):将变量定义与使用分割到不同的训练序列
        • ------>使得模型学习到错误的模式,并可能在下游任务中产生幻觉。
      • (b):摘要中的"Monday morning"无法与训练序列中的任何上下文匹配,导致内容失实
        • ------>显著降低模型对上下文信息的敏感度,导致生成的内容与实际情况不符,即所谓的不忠实生成 (unfaithful generation)。
      • (c):阻碍训练期间的知识获取,因为知识在文本中的表现形式通常依赖完整的句子或段落
  • ------>论文提出了最佳适配打包 (Best-fit Packing)
    • 使用长度感知的组合优化技术,有效地将文档打包到训练序列中,从而完全消除不必要的截断。
    • 不仅保持了传统方法的训练效率,而且通过减少数据的片段化,实质性地提高了模型训练的质量
相关推荐
IT观察8 分钟前
以需求破局:DPVR AI Glasses 重塑 AI 眼镜产业生态
人工智能
PixelMind28 分钟前
【IQA技术专题】DISTS代码讲解
图像处理·人工智能·python·算法·iqa
大志说编程32 分钟前
LangChain框架入门03:PromptTemplate 提示词模板
人工智能
岁月的眸1 小时前
【科普】贝叶斯神经网络与分形神经网络
人工智能·深度学习·神经网络
AI是草卖哩1 小时前
PINN+贝叶斯:深度学习中的魔改新思路
人工智能·深度学习·贝叶斯·pinn
阿里云大数据AI技术1 小时前
【跨国数仓迁移最佳实践4】MaxCompute 企业级能力升级:跨域访问控制与数据安全特性增强
大数据·人工智能·云计算
Swift社区1 小时前
用 AI 解析采购订单,从上传到自动生成 Draft 订单全流程实战
人工智能
TalkU浩克1 小时前
DoRA详解:从LoRA到权重分解的进化
人工智能·深度学习·机器学习
聚客AI1 小时前
⚡工程师的AGI落地指南:从基础概念到智能体开发的完整地图
人工智能·llm·agent
从零开始学习人工智能2 小时前
Coze Studio:开源AI Agent开发工具的全方位实践指南
人工智能·开源