从0开始LLM-GPT-0

本章介绍

  • 编写类似 GPT 的大型语言模型 (LLM) 编码,该模型可以训练生成类似人类的文本
  • 规范化层激活以稳定神经网络训练
  • 在深度神经网络中添加快捷方式连接以更有效地训练模型
  • 实现 transformer 模块以创建各种大小的 GPT 模型
  • 计算 GPT 模型的参数数量和存储需求

编写 LLM 架构

LLM,例如 GPT(代表 Generative Pretrained Transformer),是大型深度神经网络架构,旨在一次生成一个单词(或标记)的新文本。

GPT 模型的心智模型:提供了类似 GPT 的 LLM 的自上而下的视图,其中突出显示了其主要组件。在嵌入层旁边,它由一个或多个变压器模块组成,其中包含在上一章中实现的掩蔽多头注意力模块。 以下 Python 字典指定小型 GPT-2 模型的配置,将在后面的代码示例中使用该字典:

yaml 复制代码
GPT_CONFIG_124M = {
	"vocab_size": 50257,      # Vocabulary size
    "context_length": 1024,   # Context length
    "emb_dim": 768,           # Embedding dimension
    "n_heads": 12,            # Number of attention heads
    "n_layers": 12,           # Number of layers
    "drop_rate": 0.1,         # Dropout rate
    "qkv_bias": False         # Query-Key-Value bias
}

在GPT_CONFIG_124M词典中,为了清楚起见,使用简洁的变量名称,并防止长代码行:

  • "vocab_size"是指 50257 个单词的词汇表,由BPE 分词器使用。
  • "context_length"表示模型通过位置嵌入可以处理的最大输入标记数。
  • "emb_dim"表示嵌入大小,将每个标记转换为 768 维向量。
  • "n_heads"表示多头注意力机制中的注意力头计数。
  • "n_layers"指定模型中变压器块的数量。
  • "drop_rate"表示压差机制的强度(0.1 表示隐藏单位下降 10%),以防止过拟合。
  • "qkv_bias"确定是否在多头注意力的线性层中包含偏向量,以进行查询、键和值计算。 一个心智模型,概述了 GPT 架构进行编码的顺序。

第 1 步开始,一个占位符 GPT 主干,称之为 DummyGPTModel:

python 复制代码
import torch
import torch.nn as nn
class DummyGPTModel(nn.Module):
    def __init__(self, cfg):
        super().__init__()
        self.tok_emb = nn.Embedding(cfg["vocab_size"], cfg["emb_dim"])
        self.pos_emb = nn.Embedding(cfg["context_length"], cfg["emb_dim"])
        self.drop_emb = nn.Dropout(cfg["drop_rate"])
        self.trf_blocks = nn.Sequential(
        *[DummyTransformerBlock(cfg) for _ in range(cfg["n_layers"])]) #A
        self.final_norm = DummyLayerNorm(cfg["emb_dim"]) #B
        self.out_head = nn.Linear(
        cfg["emb_dim"], cfg["vocab_size"], bias=False
        )
    def forward(self, in_idx):
        batch_size, seq_len = in_idx.shape
        tok_embeds = self.tok_emb(in_idx)
        pos_embeds = self.pos_emb(torch.arange(seq_len, device=in_idx.device))
        x = tok_embeds + pos_embeds
        x = self.drop_emb(x)
        x = self.trf_blocks(x)
        x = self.final_norm(x)
        logits = self.out_head(x)
        return logits
class DummyTransformerBlock(nn.Module): #C
    def __init__(self, cfg):
    	super().__init__()
    def forward(self, x): #D
    	return x
class DummyLayerNorm(nn.Module): #E
    def __init__(self, normalized_shape, eps=1e-5): #F
    	super().__init__()
    def forward(self, x):
    	return x

此代码中的 DummyGPTModel 类使用 PyTorch 的神经网络模块 (nn.模块)。DummyGPTModel 类中的模型架构由标记和位置嵌入、dropout、一系列转换器块 (DummyTransformerBlock)、最终层归一化 (DummyLayerNorm) 和线性输出层 (out_head) 组成。配置是通过 Python 字典传入的。

forward 方法描述了通过模型的数据流:它计算输入索引的标记和位置嵌入,应用 dropout,通过 transformer 模块处理数据,应用归一化,最后使用线性输出层生成 logits。

在上面的代码中,使用了占位符(DummyLayerNorm 和 DummyTransformerBlock)来实现转换器块和层规范化。

图显示如何标记、嵌入和馈送到 GPT 模型的输入数据的概述。在 LLM 中,嵌入的输入令牌维度通常与输出维度匹配。

使用之前介绍的 tiktoken 分词器对 GPT 模型的两个文本输入组成的批次进行分词化:

ini 复制代码
import tiktoken
tokenizer = tiktoken.get_encoding("gpt2")
batch = []
txt1 = "Every effort moves you"
txt2 = "Every day holds a"

batch.append(torch.tensor(tokenizer.encode(txt1)))
batch.append(torch.tensor(tokenizer.encode(txt2)))
batch = torch.stack(batch, dim=0)
print(batch)
#结果
tensor([[ 6109, 3626, 6100, 345], #A
        [ 6109, 1110, 6622, 257]])

初始化一个1.24亿参数的DummyGPTModel实例:

ini 复制代码
torch.manual_seed(123)
model = DummyGPTModel(GPT_CONFIG_124M)
logits = model(batch)
print("Output shape:", logits.shape)
print(logits)
#结果
Output shape: torch.Size([2, 4, 50257])
tensor([[[-1.2034, 0.3201, -0.7130, ..., -1.5548, -0.2390, -0.4667],
         [-0.1192, 0.4539, -0.4432, ..., 0.2392, 1.3469, 1.2430],
         [ 0.5307, 1.6720, -0.4695, ..., 1.1966, 0.0111, 0.5835],
         [ 0.0139, 1.6755, -0.3388, ..., 1.1586, -0.0435, -1.0400]],
        [[-1.0908, 0.1798, -0.9484, ..., -1.6047, 0.2439, -0.4530],
         [-0.7860, 0.5581, -0.0610, ..., 0.4835, -0.0077, 1.6621],
         [ 0.3567, 1.2698, -0.6398, ..., -0.0162, -0.1296, 0.3717],
         [-0.2407, -0.7349, -0.5102, ..., 2.0057, -0.3694, 0.1814]]],
       grad_fn=<UnsafeViewBackward0>)

输出张量有两行对应于两个文本样本。每个文本样本由 4 个标记组成;每个标记都是一个 50,257 维的向量,与标记器词汇表的大小相匹配。

嵌入有 50,257 个维度,因为每个维度都引用词汇表中的唯一标记。后处理代码时,将把这些 50,257 维的向量转换回标记 ID,然后我们可以将其解码为单词。

相关推荐
居7然1 小时前
大模型微调面试题全解析:从概念到实战
人工智能·微调
haidizym2 小时前
质谱数据分析环节体系整理
大数据·人工智能·数据分析·ai4s
Godspeed Zhao2 小时前
Tesla自动驾驶域控制器产品(AutoPilot HW)的系统化梳理
人工智能·机器学习·自动驾驶
fsnine2 小时前
机器学习案例——预测矿物类型(模型训练)
人工智能·机器学习
数据知道3 小时前
机器翻译60天修炼专栏介绍和目录
人工智能·自然语言处理·机器翻译
分布式存储与RustFS3 小时前
RustFS的边缘计算优化方案在5G MEC场景下的实测数据如何?
人工智能·5g·开源·边缘计算·rustfs
2501_924890523 小时前
商超场景徘徊识别误报率↓79%!陌讯多模态时序融合算法落地优化
java·大数据·人工智能·深度学习·算法·目标检测·计算机视觉
SalvoGao3 小时前
空转学习 | cell-level 与 spot-level的区别
人工智能·深度学习·学习
初岘3 小时前
自动驾驶GOD:3D空间感知革命
人工智能·3d·自动驾驶
什么都想学的阿超4 小时前
【大语言模型 15】因果掩码与注意力掩码实现:深度学习中的信息流控制艺术
人工智能·深度学习·语言模型