Transformer 从零开始

资料:

从零开始

环境

bash 复制代码
conda create -n torch python=3.12
conda activate torch

# Install PyTorch (CPU version)
pip install torch torchvision
# Install PyTorch with CUDA (version <= nvidia-smi shown)
#  https://pytorch.org/get-started/locally
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu130

运行

bash 复制代码
cd start-deep-learning/practice/Transformer
pip install -r requirements.txt
python build_transformer.py

BATCH_SIZE 4, 可以改 32,如果显存够大。我呢,训不太动 😢

进化线

之后是概括,给一些关键词。基此问一下 AI,能得到更好的回答呢。

例如,DeepSeek 归纳了 5 条核心进化线,

如果把大模型比作一辆车:

  • Attention引擎(GQA/MLA 是省油技术);
  • Normalization底盘悬挂(RMSNorm 保证行驶稳定);
  • 激活函数燃油标号(SwiGLU 是高标号汽油);
  • 位置编码导航系统(RoPE 让你知道该去哪);
  • 架构车身设计(Decode-Only 最终统一了赛道)。

这些进化线相互配合,才有了今天又长、又快、又强的 LLM。

架构进化

Encoder-Decoder: 原始,适合 Seq2Seq 任务

Decoder-only (Causal): 当前,经过 Scaling Laws 验证

Attention 进化

KV Cache 优化,

注意力机制 KV Cache 量级 表达能力 核心思想
MHA (多头注意力) 最大 (H) 最强 每个头独立看世界
MQA (多查询注意力) 最小 (1) 较弱 所有人用同一套记忆
GQA (分组查询注意力) 中等 (G) 可控 分组共享,折中之道
MLA (多头潜在注意力) 极小 (≈1) 压缩记忆,解耦计算

计算模式优化,

  • Sliding Window Attention (滑动窗口注意力)
  • FlashAttention: 改进 GPU 的访存算法
  • Sparse Attention (稀疏注意力)

位置编码进化

让模型理解顺序,

  • 绝对位置编码
  • 相对位置编码
  • RoPE (旋转位置编码): 当前主流,更好的长度外推
  • ALiBi

激活函数进化

增强非线性,

  • ReLU
  • GeLU
  • SwiGLU

结语

开篇的资料 ① 适合入门,资料 ② 适合实践,都是超级棒的文章,值得学习 👍

相关推荐
机器学习之心3 小时前
CEEMDAN-VMD-Transformer-GRU二次分解+编码器+门控循环单元多元时间序列预测
深度学习·gru·transformer·门控循环单元·编码器·二次分解
wd5i8kA8i3 小时前
Transformer 与模型架构原理
人工智能·深度学习·transformer
小码吃趴菜4 小时前
Transformer 视频学习笔记
人工智能·深度学习·transformer
小超同学你好1 天前
Transformer 20. Qwen 3 架构介绍:模块详解与相对 Qwen 1 / Qwen 2 的演进
人工智能·语言模型·架构·transformer
人工智能培训1 天前
系统集成与计算效率问题探析
人工智能·深度学习·机器学习·transformer·知识图谱
小超同学你好1 天前
Transformer 21. 从 LLaMA 到 Qwen:Rotary Position Embedding(RoPE)与 YaRN 一文读懂
语言模型·架构·transformer·llama
机器学习之心1 天前
CEEMDAN-VMD-Transformer-BiLSTM双重分解+编码器+双向长短期记忆神经网络多元时间序列预测
深度学习·神经网络·transformer·双重分解·多元时间序列预测
ZhouDevin1 天前
【算法实战】DEIMv2全流程复现
人工智能·python·算法·目标检测·计算机视觉·transformer
带娃的IT创业者1 天前
期中总结:从神经元到 GPT——AI 架构全景回顾(Version B)
人工智能·gpt·深度学习·神经网络·架构·nlp·transformer
WHS-_-20222 天前
Neural Representation for Wireless Radiation Field Reconstruction (II)
深度学习·transformer