为什么LLM推理要分成Prefill和Decode两个阶段?

一句话解释 : Prefill 和 Decode 的分工

大语言模型生成文本的过程本质上是给定上下文,逐词预测下一个词。但在实现上,这个过程被明确地分成两个阶段:

为什么不能用一个阶段做完?

因为输入和输出的计算特性完全不同

  • 输入 prompt 是完整的、一次性提供的,适合并行计算。
  • 输出 token 是未知的,只能一个一个推理,必须串行。

这种"数据形态差异"导致我们不得不把它们拆成两个阶段,并用不同方式处理。

Prefill: 模型如何"理解"你输入的 prompt?

什么是 prefill?

Prefill阶段是语言模型推理中的第一个步骤,它负责处理你输入的所有上下文内容(prompt)为后续生成打下基础。

更多AI大模型学习视频及资源,都在智泊AI

比如你问模型一句话:

"请解释一下 Transformer 的原理。"

这句话会被 tokenizer 编码为一串 token,比如["请","解释","一下","Trans","##former","的","原理","。"]。

然后这些 token 会进入 Transformer 模型进行前向传播。重点来了!!

Prefill 中模型内部到底发生了什么?

Step1: Embedding 输入

每个 token 会映射成一个向量(embedding),形状为[batch_size,seq_len,hidden_dim]

Step2: Self-Attention 的全量计算

输入是完整的上下文,因此模型会执行一次完整的 masked self-attention。

对于位置 i 的 token,会计算它和前面所有位置的注意力(包括自己):

Step 3: 生成 KV Cache

每层 Transformer 都会把每个token 的 K 和 V 存下来,形成 KV Cache:

这个 Cache 会在 decode 阶段被反复使用,避免重复计算。

为什么 prefill 的计算成本那么高? 让我们做个简单对比:

Prefill 最大的特点是:

需要"每个 token 与前面所有 token 做 attention"

不能复用 KV Cache(因为是第一次建立)

Prefill 是典型的 compute-bound 阶段:

大量矩阵乘法和 attention 计算主导性能瓶颈

GPU 的算力利用率很高,但内存带宽压力较小

因此如果你的 prompt 很长,prefill阶段就会非常耗时。很多模型响应慢,不是生成慢,而是 prompt 处理慢。

Decode: token-by-token 地生成输出

在 prefill 之后,模型已经建立了一个完整的 KV Cache,可以开始逐步生成 token。每次 decode 只需要:

把最新生成的 token 输入进去

拿之前的 KV Cache 来做 attention

预测下一个 token

Decode 是典型的 memory-bound 阶段:

每生成一个 token,都需要访问所有历史的 KV Cache(多层、多头)

计算量小,但内存带宽压力大

特别在 batch size 小、生成序列长的场景,GPU 利用率会很低

拆分 Prefill 和 Decode 是"推理效率最大化"的关键

我们回到标题的问题:

为什么 LLM 推理要分成 Prefill 和 Decode?

因为这两个阶段的输入特性和计算方式本质不同

因此,拆成两个阶段是为了精准优化每一步的计算路径,比如:

Prefill 可用 FlashAttention 等并行技术提升性能

Decode 可用KV Cache、speculative decoding 等加速生成

Prefill vs Decode 的性能瓶颈差异

在推理过程中,Prefill 和 Decode 阶段不仅在结构上不同,在性能瓶颈上也大相径庭:

为什么 Decode 会是 Bandwidth-bound?

在 Decode 阶段,虽然只生成一个新 token,但为了计算它的注意力得分,需要加载全部历史 token 的 KV Cache。这意味着:

每层都要从 GPU 内存中读取大量数据

实际计算(比如 Q x K^T)规模却很小

导致 GPU 大量时间都在等内存传输,而不是在计算。

这就是典型的 Bandwidth-bound 场景 ------ 内存带宽成为限制性能的关键因素,而不是算力本身。

那 Memory-bound 又是什么?

容易混淆的是 "memory-bound",但它和 bandwidth-bound 有所不同:

更多AI大模型学习视频及资源,都在智泊AI

相关推荐
AI大模型7 小时前
全面掌握 AI 智能体 30 个高频面试的问题与解答相关的核心知识点!
程序员·llm·agent
wendao9 小时前
我开发了个极简的LLM提供商编辑器
前端·react.js·llm
IvanCodes1 天前
一、初识 LangChain:架构、应用与开发环境部署
人工智能·语言模型·langchain·llm
大千AI助手1 天前
Megatron-LM张量并行详解:原理、实现与应用
人工智能·大模型·llm·transformer·模型训练·megatron-lm张量并行·大千ai助手
Thomas_Cai1 天前
大模型微调快速入门
人工智能·大模型·llm
CoderJia程序员甲2 天前
GitHub 热榜项目 - 日榜(2025-10-31)
ai·开源·llm·github
CS创新实验室2 天前
【译文】DeepSeek-OCR:上下文光学压缩
ai·大模型·llm·ocr·deepseek-ocr
hojyn2 天前
LLM评估系列(二):LLM 乱输出难控?五篇顶会论文教你用 LLM 评估器破解五大关键场景
llm
hojyn2 天前
别再先分块了!Late Chunking:长上下文嵌入模型如何终结 RAG 检索不准的魔咒?
llm