论文略读Fewer Truncations Improve Language Modeling

ICML 2024

1 背景

  • 在传统LLM训练过程中,为了提高效率,通常会将多个输入文档拼接在一起,然后将这些拼接的文档分割成固定长度的序列。
    • ------>会造成一个重大问题------文档截断(document truncation),损害了数据完整性(data integrity)
    • 此外,文档截断减少了每个序列中的上下文量,可能导致下一个词的预测与上文不相关,从而使模型更容易产生幻觉 (hallucination)。
      • (a):将变量定义与使用分割到不同的训练序列
        • ------>使得模型学习到错误的模式,并可能在下游任务中产生幻觉。
      • (b):摘要中的"Monday morning"无法与训练序列中的任何上下文匹配,导致内容失实
        • ------>显著降低模型对上下文信息的敏感度,导致生成的内容与实际情况不符,即所谓的不忠实生成 (unfaithful generation)。
      • (c):阻碍训练期间的知识获取,因为知识在文本中的表现形式通常依赖完整的句子或段落
  • ------>论文提出了最佳适配打包 (Best-fit Packing)
    • 使用长度感知的组合优化技术,有效地将文档打包到训练序列中,从而完全消除不必要的截断。
    • 不仅保持了传统方法的训练效率,而且通过减少数据的片段化,实质性地提高了模型训练的质量
相关推荐
飞哥数智坊3 分钟前
3位实战分享、6个案例展示,TRAE Friends@济南第二场圆满完成
人工智能·ai编程·trae
xiaobaishuoAI4 分钟前
全链路性能优化实战指南:从瓶颈定位到极致优化
大数据·人工智能·科技·百度·geo
人工小情绪4 分钟前
深度学习模型部署形式
人工智能·深度学习
AI_56786 分钟前
零基础学Linux:21天从“命令小白”到独立部署服务器
linux·服务器·人工智能·github
乾元7 分钟前
如何把 CCIE / HCIE 的实验案例改造成 AI 驱动的工程项目——从“实验室能力”到“可交付系统”的完整迁移路径
大数据·运维·网络·人工智能·深度学习·安全·机器学习
GZKPeng8 分钟前
pytorch +cuda成功安装后, torch.cuda.is_available 是False
人工智能·pytorch·python
QBoson12 分钟前
量子机器学习用于药物发现:系统综述
人工智能·机器学习·量子计算
DatGuy12 分钟前
Week 32: 深度学习补遗:Agent的认知架构、记忆系统与高阶规划
人工智能·深度学习
A尘埃13 分钟前
OpenCV常用方法介绍
人工智能·opencv·计算机视觉
海天一色y13 分钟前
基于Resnet50预训练模型实现CIFAR-10数据集的分类任务
人工智能·分类·数据挖掘