TransFormer 视频笔记

TransFormer

Basics

接受一段文本,输出一个单词。

token -> (Embeding)-> high dimensional vector. 方向对应语义

​​​​​​​​​​​​

最初的向量也包含位置信息。1万多维。

Attention

除以d~k~ 是为了数值稳定

将上下文的信息传给当前token。

attention机制给最初的generic embedding加个向量,将其移动到上下文对应的具体方向上。

Attention不仅精细化了嵌入向量的定义,还能将嵌入向量的信息传给其他的向量。

经过多层attention后,预测下一个token的计算过程完全取决于最后一个向量。

单头注意力 single head attention

Q: query 查寻矩阵 128*12288

W~Q~ 将E(嵌入向量)映射低维空间中。Q是128*1

K key matrix 128*12288

Key矩阵同样将嵌入向量映射到低维空间中,得到第二个向量序列。当key与query的方向一致时(两个向量的点积越大越相关),就能认为他们匹配。

SoftMax 归一

Masking: 在训练时,不能提前知道答案,后级的信息不能传递给前级。为了避免后级token对前级的影响,将下半边矩阵设为-∞。

该pattern表明每个词与其他哪些词相关

Value matrix 12288*12288


MLP


相关推荐
韩zj8 分钟前
android 蓝牙语音转换成pcm文件,进行播放暂停停止操作
android·蓝牙·pcm
狐571 小时前
横排文字、图层蒙版-1(2024年09月30日)
笔记·学习
ker-ge1 小时前
笔记 - 高分辨率下部分软件应用字体太小
笔记
muls11 小时前
考研笔记之操作系统(三)- 存储管理
笔记·考研
丶重明2 小时前
【2024】前端学习笔记11-网页布局-弹性布局flex
前端·笔记·学习
少喝冰美式3 小时前
深度学习 Transformer 的标签平滑(Label Smoothing)
人工智能·深度学习·llm·transformer·大语言模型·ai大模型·计算机技术
Peter11467178504 小时前
【生成模型】学习笔记
笔记·学习·概率论
凭栏落花侧4 小时前
什么是数据挖掘?初学者指南
开发语言·笔记·python·学习·conda·pandas·pip