TransFormer 视频笔记

TransFormer

Basics

接受一段文本,输出一个单词。

token -> (Embeding)-> high dimensional vector. 方向对应语义

​​​​​​​​​​​​

最初的向量也包含位置信息。1万多维。

Attention

除以dk 是为了数值稳定

将上下文的信息传给当前token。

attention机制给最初的generic embedding加个向量,将其移动到上下文对应的具体方向上。

Attention不仅精细化了嵌入向量的定义,还能将嵌入向量的信息传给其他的向量。

经过多层attention后,预测下一个token的计算过程完全取决于最后一个向量。

单头注意力 single head attention

Q: query 查寻矩阵 128*12288

WQ 将E(嵌入向量)映射低维空间中。Q是128*1

K key matrix 128*12288

Key矩阵同样将嵌入向量映射到低维空间中,得到第二个向量序列。当key与query的方向一致时(两个向量的点积越大越相关),就能认为他们匹配。

SoftMax 归一

Masking: 在训练时,不能提前知道答案,后级的信息不能传递给前级。为了避免后级token对前级的影响,将下半边矩阵设为-∞。

该pattern表明每个词与其他哪些词相关

Value matrix 12288*12288


MLP


相关推荐
程序员夏末1 分钟前
【LeetCode | 第六篇】算法笔记
笔记·算法·leetcode
A923A21 分钟前
【Vue3大事件 | 项目笔记】第二天
前端·vue.js·笔记·前端框架·前端项目
额12927 分钟前
Docker搭建zabbix
笔记
一只特立独行的Yang27 分钟前
Android Focus小结
android
killer Curry1 小时前
Polar CTF PWN 简单(1)(持续更新)
笔记·python·算法
北岛寒沫1 小时前
北京大学国家发展研究院 中国经济专题 课程笔记(第一课 绪论)
经验分享·笔记·学习
咚咚王者2 小时前
人工智能之语言领域 自然语言处理 第十二章 Transformer架构
人工智能·自然语言处理·transformer
無限進步D2 小时前
高精度算法 cpp
c++·笔记·算法·入门
古一木2 小时前
ai学习笔记
笔记
Allnadyy2 小时前
【Transformer】神经网络,CNN,RNN
人工智能·深度学习·transformer