【官方双语】GPT是什么?直观解释Transformer | 深度学习第5章
0:00 - 预测,采样,重复:预训练/生成式/Transformer模型
3:03 - Transformer 的内部结构
6:36 - 本期总述
7:20 - 深度学习的大框架
12:27 - GPT的第一层:词嵌入为向量(embedding)
18:25 - 嵌入空间不仅代表词,还能包含上下文信息
20:22 - GPT的最后一层:向量解码为词(Unembedding)
22:22 - 带温度的 Softmax 函数
26:03 - 下期预告:深入注意力机制
1.0. GPT的解释
预测后续内容
- 视频重要内容
1.1 Token的解释
词的含义不同(以model举例)
注意力模块的工作:
后续是接多层感知器(MLP)或者叫做前馈神经网络:
深度学习系列课程
1.2 权重
八个类别:
1.3 词嵌入
几何角度理解:
举个例子:
- 点积
几何角度:
1.4 上下文长度
1.5 输出
- 涉及两个步骤
1.6 解嵌入矩阵
1.7 Softmax
下一章:Attention