主流大语言模型中Token的生成过程本质是串行的

主流大语言模型中Token的生成过程本质是串行的

flyfish

1. 串行生成

  • 自回归模型的核心逻辑

    大模型(如GPT-2)采用自回归架构,每个Token的生成必须基于已生成的完整历史序列。例如,生成"今天天气很好"时:

    python 复制代码
    输入:<start>
    输出1:"今" → 输入更新:<start>今
    输出2:"天" → 输入更新:<start>今天
    输出3:"天" → 输入更新:<start>今天天
    ...(重复或乱码可能因模型困惑导致)

    每个Token的生成必须依赖前一步的结果,形成严格的链式依赖。

  • 计算与生成的分离

    虽然模型内部的矩阵运算(如注意力计算)通过GPU并行加速,但生成顺序必须严格串行。例如:

    • 第1步:计算第一个Token的概率分布(基于空输入)。
    • 第2步:将第一个Token加入输入,计算第二个Token的概率分布。
    • 依此类推,无法跳过或提前生成后续Token。

例如:

python 复制代码
# 假设模型需生成 "ABC"
步骤1:生成A(依赖空输入)
步骤2:生成B(依赖A)
步骤3:生成C(依赖A+B)

即使步骤1和步骤2的计算在硬件层面并行,生成顺序仍必须是A→B→C。

2. 优化方法的局限性

Beam Search等算法通过维护多个候选序列提升效率,但本质仍是串行生成:

python 复制代码
# Beam Search示例(Beam Size=2)
步骤1:生成2个候选("今", "天")
步骤2:基于每个候选生成下一个Token(如"今天" → "气","天天" → "气")
步骤3:依此类推,每次扩展候选序列的长度

每个候选序列的Token仍需按顺序生成,无法并行生成整个序列。

py 复制代码
import torch
from transformers import GPT2LMHeadModel, GPT2Tokenizer

# 加载 GPT-2 模型和分词器
model_path = r"gpt2"

tokenizer = GPT2Tokenizer.from_pretrained(model_path)
model = GPT2LMHeadModel.from_pretrained(model_path)

input_text = "Once upon a time"
input_ids = tokenizer.encode(input_text, return_tensors='pt')

# 使用 top - k 采样生成文本
output = model.generate(
    input_ids,
    max_length=20,
    top_k=50,
    temperature=0.7
)

generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print("生成的文本:", generated_text)

生成的文本: Once upon a time, the world was a place of great beauty and great danger. The world was

py 复制代码
import torch
from transformers import GPT2LMHeadModel, GPT2Tokenizer

# 加载 GPT-2 模型和分词器
model_path = r"gpt2"

tokenizer = GPT2Tokenizer.from_pretrained(model_path)
model = GPT2LMHeadModel.from_pretrained(model_path)

# 输入文本
input_text = "Once upon a time"
# 对输入文本进行分词
input_ids = tokenizer.encode(input_text, return_tensors='pt')

# 初始化生成的序列
generated_sequence = input_ids

# 定义最大生成长度
max_length = 20

print("顺序生成的 token:")
for step in range(max_length):
    # 使用模型进行预测
    with torch.no_grad():
        outputs = model(generated_sequence)
        logits = outputs.logits[:, -1, :]  # 获取最后一个 token 的预测结果

    # 选择概率最大的 token
    next_token_id = torch.argmax(logits, dim=-1).unsqueeze(0)

    # 将生成的 token 添加到序列中
    generated_sequence = torch.cat([generated_sequence, next_token_id], dim=-1)

    # 解码并打印生成的 token 及其位置
    next_token = tokenizer.decode(next_token_id[0].item())
    print(f"步骤 {step + 1}: 生成 token '{next_token}',当前序列长度: {generated_sequence.shape[1]}")

# 解码并打印完整的生成序列
generated_text = tokenizer.decode(generated_sequence[0], skip_special_tokens=True)
print("\n完整生成的文本:", generated_text)
顺序生成的 token:
步骤 1: 生成 token ',',当前序列长度: 5
步骤 2: 生成 token ' the',当前序列长度: 6
步骤 3: 生成 token ' world',当前序列长度: 7
步骤 4: 生成 token ' was',当前序列长度: 8
步骤 5: 生成 token ' a',当前序列长度: 9
步骤 6: 生成 token ' place',当前序列长度: 10
步骤 7: 生成 token ' of',当前序列长度: 11
步骤 8: 生成 token ' great',当前序列长度: 12
步骤 9: 生成 token ' beauty',当前序列长度: 13
步骤 10: 生成 token ' and',当前序列长度: 14
步骤 11: 生成 token ' great',当前序列长度: 15
步骤 12: 生成 token ' danger',当前序列长度: 16
步骤 13: 生成 token '.',当前序列长度: 17
步骤 14: 生成 token ' The',当前序列长度: 18
步骤 15: 生成 token ' world',当前序列长度: 19
步骤 16: 生成 token ' was',当前序列长度: 20
步骤 17: 生成 token ' a',当前序列长度: 21
步骤 18: 生成 token ' place',当前序列长度: 22
步骤 19: 生成 token ' of',当前序列长度: 23

自回归架构是许多大语言模型顺序生成Token的根本原因,并且其链式依赖特性确实有助于确保生成过程的逻辑连贯性。

自回归架构与Token生成

  1. 自回归机制

    • 在自回归模型中,比如GPT系列模型,生成下一个Token的过程依赖于前面已经生成的所有Token。具体来说,生成第 t t t个Token时,模型会基于前 t − 1 t-1 t−1个Token来计算概率分布,然后从中采样或选择最有可能的下一个Token。
    • 这种链式依赖关系(即每个Token的生成依赖于之前的全部或部分Token)保证了文本生成的逻辑一致性和连贯性。
  2. 串行生成 vs 并行生成

    • 串行生成:传统的大语言模型如GPT系列,在推理阶段通常是逐个Token串行生成的。这是因为每个新Token的生成都需要利用到之前所有已生成的Token作为上下文输入,这种依赖关系限制了并行处理的可能性。
    • 尝试并行化:尽管存在一些研究和方法试图提高生成效率,例如通过投机解码(Speculative Decoding)或者使用多个模型同时预测不同位置的Token,但这些方法并没有完全改变基本的自回归生成机制。大多数情况下,核心的Token生成步骤仍然是串行进行的,因为当前Token的生成必须等待前面的Token确定下来才能开始。

3. 数学本质的"自相关性"

自回归(Autoregressive)模型中的"自",自回归的核心在于当前输出仅依赖于自身历史输出 。用数学公式表示为:
x t = ϕ 1 x t − 1 + ϕ 2 x t − 2 + ⋯ + ϕ p x t − p + ϵ t x_t = \phi_1 x_{t-1} + \phi_2 x_{t-2} + \dots + \phi_p x_{t-p} + \epsilon_t xt=ϕ1xt−1+ϕ2xt−2+⋯+ϕpxt−p+ϵt

  • 自相关性 :模型通过自身序列的滞后项( x t − 1 , x t − 2 x_{t-1}, x_{t-2} xt−1,xt−2等)预测当前值
  • 内生性:所有变量均来自同一序列,区别于普通回归模型中的外生变量

例如,股票价格预测模型中, x t x_t xt(今日股价)仅依赖于过去5天的股价( x t − 1 x_{t-1} xt−1到 x t − 5 x_{t-5} xt−5),而非外部因素如新闻、财报等。

4. 生成过程的"自我迭代"

在自然语言处理中,这种"自"特性体现为:

  1. 链式生成:每个Token的生成必须基于已生成的Token序列
  2. 因果掩码:Transformer架构中,每个位置i的注意力被限制在1到i-1的位置
  3. 动态更新:每生成一个Token,模型的内部状态(隐藏层激活值)会被更新

以GPT-2生成句子为例:

输入:"今天天气"
生成过程:
1. 预测第一个Token:"很"(基于"今天天气")
2. 预测第二个Token:"好"(基于"今天天气很")
3. 预测第三个Token:"啊"(基于"今天天气很好")

5. 与其他模型的对比

模型类型 是否"自"依赖 典型应用场景
自回归模型 仅依赖自身历史 文本生成、时间序列预测
非自回归模型 不依赖自身历史 图像超分辨率、语音识别
混合模型 部分依赖自身历史 对话系统(结合外部知识)
相关推荐
大数据追光猿42 分钟前
Qwen 模型与 LlamaFactory 结合训练详细步骤教程
大数据·人工智能·深度学习·计算机视觉·语言模型
老王不住隔壁、7 小时前
本地搭建DeepSeek R1模型 + 前端
语言模型
何大春7 小时前
【对话推荐系统综述】Broadening the View: Demonstration-augmented Prompt Learning for CR
论文阅读·人工智能·深度学习·语言模型·prompt·论文笔记
东临碣石828 小时前
【英伟达AI论文】多模态大型语言模型的高效长视频理解
人工智能·语言模型·自然语言处理
LeeZhao@10 小时前
【AGI】通往AGI的复兴号:模型工具演进与技术路径优化
人工智能·语言模型·aigc·agi
西京刀客1 天前
从零开始训练小型语言模型之minimind
人工智能·语言模型·自然语言处理
Toky丶1 天前
【文献阅读】Efficient Prompting Methods for Large Language Models: A Survey
人工智能·语言模型·自然语言处理
带电的小王1 天前
Token:SentencePiece论文阅读--大模型中主流的分词算法
论文阅读·人工智能·算法·语言模型·大语言模型基础
扫地僧9851 天前
MuMu-LLaMA:通过大型语言模型进行多模态音乐理解和生成(Python代码实现+论文)
人工智能·语言模型·llama