【LLaDA】Large Language Diffusion Models

note

  • 这篇论文介绍了LLaDA,一种从头开始训练的大规模扩散语言模型。LLaDA展示了强大的可扩展性、上下文学习能力和指令跟随能力,达到了与领先的LLMs相当的性能。此外,LLaDA提供了双向建模和增强的鲁棒性,有效解决了现有LLMs的一些局限性。
  • LLaDA不是像 GPT/LLaMA 那样 从左到右一个 token 一个 token 生成,而是:先把句子里的 token 随机 mask 掉,模型去预测这些 mask 的 token,推理时从"全 mask"开始,逐步把句子补出来
  • LLM 的 in-context learning、instruction following、scaling,这些能力是不是天然只能靠自回归模型得到?
    • 作者的答案是:不一定。
    • LLaDA预训练时对整句按随机比例 mask;SFT 时只 mask response;生成时从全 mask 的 response 一步步还原。
  • LLaDA 在 general、math、code、Chinese 等 benchmark 上,整体能做到和他们自己训练的 ARM baseline 差不多;8B base 还和 LLaMA3 8B Base 接近。SFT 后也能做多轮对话和指令跟随。
  • AR 模型很擅长顺着生成,但对"反着来"的任务天然不舒服。论文拿中文诗句补全举例:给下句推上句,LLaDA 因为是双向 mask 预测,没有左到右偏置,所以在 reversal task 上明显更稳,甚至在这个任务上超过 GPT-4o。

文章目录

一、研究背景

  • 研究问题:这篇文章要解决的问题是大语言模型(LLMs)是否只能依赖于自回归模型(ARMs)来实现其核心能力,如可扩展性、上下文学习和指令跟随。
  • 研究难点:该问题的研究难点包括:如何在不使用自回归模型的情况下,通过生成模型原则实现LLMs的核心能力;如何在有限的计算预算下实现大规模语言模型的扩展。
  • 相关工作:该问题的研究相关工作有:自回归模型在LLMs中的广泛应用和成功;扩散模型在视觉数据上的成功应用;以及对现有扩散模型在语言建模中的潜在扩展的研究。

二、LLaDA

这篇论文提出了LLaDA(Large Language Diffusion with mAsking),一种从预训练和监督微调(SFT)范式下从头开始训练的扩散模型。

预训练时对整句按随机比例 mask;SFT 时只 mask response;生成时从全 mask 的 response 一步步还原。

1. 前向数据掩码过程

首先,LLaDA通过逐步独立地掩码序列中的令牌来生成一个部分掩码的序列。对于时间 t ∈ ( 0 , 1 ) t \in (0, 1) t∈(0,1),序列 x t x_t xt是部分掩码的,每个令牌被掩码的概率是 t t t,未被掩码的概率是 1 − t 1 - t 1−t。

2. 反向生成过程

然后,LLaDA通过迭代预测掩码令牌来恢复数据分布。核心是一个掩码预测器,一个参数模型 p θ ( ⋅ ∣ x t ) p_\theta(\cdot|x_t) pθ(⋅∣xt),它接受 x t x_t xt作为输入并预测所有掩码令牌。该模型使用交叉熵损失进行训练:

L ( θ ) ≜ − E t , x 0 , x t [ 1 t ∑ i = 1 L 1 [ x t i = M ] log ⁡ p θ ( x 0 i ∣ x t ) ] \mathcal{L}(\theta) \triangleq - \mathbb{E}{t, x_0, x_t} \left[ \frac{1}{t} \sum{i=1}^L \mathbb{1}[x_t^i = M] \log p_\theta(x_0^i|x_t) \right] L(θ)≜−Et,x0,xt[t1i=1∑L1[xti=M]logpθ(x0i∣xt)]

其中:

  • x 0 x_0 x0是训练样本
  • t t t是从 [ 0 , 1 ] [0, 1] [0,1]均匀抽取的连续随机变量
  • x t x_t xt是从前向过程中采样的
  • L L L是序列长度

3. 模型分布定义

一旦训练完成,可以通过掩码预测器参数化的反向过程来模拟反向过程,并在 t = 0 t = 0 t=0时定义模型分布 p θ ( x 0 ) p_\theta(x_0) pθ(x0)作为边缘分布。损失函数在方程(4)中被证明是模型分布负对数似然的上界,使其成为生成建模的有力目标。

三、实验设计

  • 数据收集:预训练语料库由来自公共来源的多样化数据构成,包括网络数据、书籍、学术文章、社交媒体、百科全书、数学和代码,约11%是中文,61%是英文,28%是代码。SFT数据集包括100万个人工标注样本和350万个合成样本。
  • 数据预处理:数据清理涉及PDF文本提取、去重和有害内容过滤。为了确保质量,使用BERT模型进行自动化数据质量注释,以选择更高质量的样本。
  • 模型训练:LLaDA采用Transformer架构作为掩码预测器,并使用AdamW优化器和Warmup-Stable-Decay学习率调度器进行训练。预训练过程中,使用固定序列长度4096,计算成本为0.13百万H800 GPU小时。SFT过程中,使用动态序列长度策略,确保所有样本具有相同的长度。

四、结果分析

  • 可扩展性:LLaDA在六个标准任务上展示了令人印象深刻的可扩展性,整体趋势与ARMs高度竞争。特别是在MMLU和GSM8K任务上,LLaDA表现出更强的可扩展性。
  • 基准测试结果:在预训练2.3T令牌后,LLaDA 8B Base在几乎所有15个标准零样本/少样本学习任务上超越了LLaMA2 7B Base,并且在大多数任务上与LLaMA3 8B Base表现相当。
  • 指令跟随能力:SFT显著增强了LLaDA的指令跟随能力,如多轮对话案例所示。
  • 反转推理能力:LLaDA有效地打破了反转诅咒,在正向和反转任务上表现一致。特别是在反转诗歌完成任务中,LLaDA超越了GPT-4o。

Reference

1\] Large Language Diffusion Models

相关推荐
BothSavage3 小时前
OpenHarness源码研究-2-CLI构建工具Typer
大模型·agent·openharness
xixixi777774 小时前
从5G标准到6G前沿:Polar码的技术演进与未来之路
开发语言·人工智能·5g·大模型·php·通信·polar码
CoderJia程序员甲6 小时前
GitHub 热榜项目 - 日榜(2026-04-13)
ai·大模型·github·ai教程
Baihai_IDP6 小时前
以 Nano-vLLM 为例,深入理解 LLM 推理引擎(Part 1)
人工智能·面试·llm
Pkmer6 小时前
Agent的ReAct(推理+行动)模式
llm·agent
chaors6 小时前
LangGraph 入门到精通0x02:Graph 其他基础能力
llm·agent·ai编程
chaors6 小时前
LangGraph 入门到精通0x01:Graph 通讯机制
langchain·llm·agent
是Dream呀6 小时前
Gemma-4-31B-it到底强在哪:从 vLLM 启动到 OpenCode 接入,我把整条链路跑通了
人工智能·llm
博士僧小星7 小时前
人工智能|大模型——训练——大模型微调全栈指南:从Transformer架构、10+种PEFT原理、流程与实战(全网最详细)
人工智能·lora·大模型·微调·peft·qlora·prefix tuning