为什么LLM推理要分成Prefill和Decode两个阶段?

一句话解释 : Prefill 和 Decode 的分工

大语言模型生成文本的过程本质上是给定上下文,逐词预测下一个词。但在实现上,这个过程被明确地分成两个阶段:

为什么不能用一个阶段做完?

因为输入和输出的计算特性完全不同

  • 输入 prompt 是完整的、一次性提供的,适合并行计算。
  • 输出 token 是未知的,只能一个一个推理,必须串行。

这种"数据形态差异"导致我们不得不把它们拆成两个阶段,并用不同方式处理。

Prefill: 模型如何"理解"你输入的 prompt?

什么是 prefill?

Prefill阶段是语言模型推理中的第一个步骤,它负责处理你输入的所有上下文内容(prompt)为后续生成打下基础。

更多AI大模型学习视频及资源,都在智泊AI

比如你问模型一句话:

"请解释一下 Transformer 的原理。"

这句话会被 tokenizer 编码为一串 token,比如["请","解释","一下","Trans","##former","的","原理","。"]。

然后这些 token 会进入 Transformer 模型进行前向传播。重点来了!!

Prefill 中模型内部到底发生了什么?

Step1: Embedding 输入

每个 token 会映射成一个向量(embedding),形状为[batch_size,seq_len,hidden_dim]

Step2: Self-Attention 的全量计算

输入是完整的上下文,因此模型会执行一次完整的 masked self-attention。

对于位置 i 的 token,会计算它和前面所有位置的注意力(包括自己):

Step 3: 生成 KV Cache

每层 Transformer 都会把每个token 的 K 和 V 存下来,形成 KV Cache:

这个 Cache 会在 decode 阶段被反复使用,避免重复计算。

为什么 prefill 的计算成本那么高? 让我们做个简单对比:

Prefill 最大的特点是:

需要"每个 token 与前面所有 token 做 attention"

不能复用 KV Cache(因为是第一次建立)

Prefill 是典型的 compute-bound 阶段:

大量矩阵乘法和 attention 计算主导性能瓶颈

GPU 的算力利用率很高,但内存带宽压力较小

因此如果你的 prompt 很长,prefill阶段就会非常耗时。很多模型响应慢,不是生成慢,而是 prompt 处理慢。

Decode: token-by-token 地生成输出

在 prefill 之后,模型已经建立了一个完整的 KV Cache,可以开始逐步生成 token。每次 decode 只需要:

把最新生成的 token 输入进去

拿之前的 KV Cache 来做 attention

预测下一个 token

Decode 是典型的 memory-bound 阶段:

每生成一个 token,都需要访问所有历史的 KV Cache(多层、多头)

计算量小,但内存带宽压力大

特别在 batch size 小、生成序列长的场景,GPU 利用率会很低

拆分 Prefill 和 Decode 是"推理效率最大化"的关键

我们回到标题的问题:

为什么 LLM 推理要分成 Prefill 和 Decode?

因为这两个阶段的输入特性和计算方式本质不同

因此,拆成两个阶段是为了精准优化每一步的计算路径,比如:

Prefill 可用 FlashAttention 等并行技术提升性能

Decode 可用KV Cache、speculative decoding 等加速生成

Prefill vs Decode 的性能瓶颈差异

在推理过程中,Prefill 和 Decode 阶段不仅在结构上不同,在性能瓶颈上也大相径庭:

为什么 Decode 会是 Bandwidth-bound?

在 Decode 阶段,虽然只生成一个新 token,但为了计算它的注意力得分,需要加载全部历史 token 的 KV Cache。这意味着:

每层都要从 GPU 内存中读取大量数据

实际计算(比如 Q x K^T)规模却很小

导致 GPU 大量时间都在等内存传输,而不是在计算。

这就是典型的 Bandwidth-bound 场景 ------ 内存带宽成为限制性能的关键因素,而不是算力本身。

那 Memory-bound 又是什么?

容易混淆的是 "memory-bound",但它和 bandwidth-bound 有所不同:

更多AI大模型学习视频及资源,都在智泊AI

相关推荐
AI架构师易筋2 小时前
模型上下文协议(MCP)完全指南:从AI代理痛点到实战开发
人工智能·microsoft·语言模型·llm·mcp
Robot侠2 小时前
视觉语言导航从入门到精通(二)
开发语言·人工智能·python·llm·vln
前端阿森纳4 小时前
从产品经理视角拆解 LangChain 的抽象设计
langchain·llm·aigc
被制作时长两年半的个人练习生4 小时前
【大模型】happy-llm笔记
笔记·大模型·llm
AI大模型4 小时前
大模型AI Agent 小白科研路线规划:从入门到精通!(含Agent学习资源)
程序员·llm·agent
visnix5 小时前
AI大模型原理剖析和实战(第四部分:后训练与微调)
llm·aigc
前端阿森纳5 小时前
从五个关键维度重新审视 RAG 架构设计
llm·aigc·ai编程
Robot侠5 小时前
视觉语言导航从入门到精通(三)
llm·transformer·vln·multi-modal llm
坐吃山猪6 小时前
AutoGLMPhone03-adb模块
adb·llm·glm
EdisonZhou6 小时前
MAF快速入门(7)工作流的状态共享
llm·aigc·agent·.net core