TransFormer 视频笔记

TransFormer

Basics

接受一段文本,输出一个单词。

token -> (Embeding)-> high dimensional vector. 方向对应语义

​​​​​​​​​​​​

最初的向量也包含位置信息。1万多维。

Attention

除以dk 是为了数值稳定

将上下文的信息传给当前token。

attention机制给最初的generic embedding加个向量,将其移动到上下文对应的具体方向上。

Attention不仅精细化了嵌入向量的定义,还能将嵌入向量的信息传给其他的向量。

经过多层attention后,预测下一个token的计算过程完全取决于最后一个向量。

单头注意力 single head attention

Q: query 查寻矩阵 128*12288

WQ 将E(嵌入向量)映射低维空间中。Q是128*1

K key matrix 128*12288

Key矩阵同样将嵌入向量映射到低维空间中,得到第二个向量序列。当key与query的方向一致时(两个向量的点积越大越相关),就能认为他们匹配。

SoftMax 归一

Masking: 在训练时,不能提前知道答案,后级的信息不能传递给前级。为了避免后级token对前级的影响,将下半边矩阵设为-∞。

该pattern表明每个词与其他哪些词相关

Value matrix 12288*12288


MLP


相关推荐
Hello_Embed32 分钟前
LVGL 入门(十五):接口优化
前端·笔记·stm32·单片机·嵌入式
孞㐑¥34 分钟前
算法—记忆化搜索
开发语言·c++·经验分享·笔记·算法
chushiyunen37 分钟前
人工智能-语义校验deepEval笔记
人工智能·笔记
hssfscv37 分钟前
软件设计师下午题二 E-R图
java·笔记·学习
lpfasd12340 分钟前
2026年第12周社区趋势周报
笔记
优选资源分享1 小时前
椒盐音乐 v11.1.0 丨安卓无广本地音乐播放器
android
RSFeegg1 小时前
【AI Agent 学习笔记task2】Day3 Hello-Agents 第二章:智能体发展史深度解读
人工智能·笔记·学习
韭菜盖饭2 小时前
大模型常见八股集合(带答案)
语言模型·自然语言处理·面试·transformer
xiangxiongfly9152 小时前
Android ArrayMap源码分析
android·arraymap
小陈phd2 小时前
多模态大模型学习笔记(二十四)—— 核心技术篇① | 虚拟人形象生成:扩散模型与ControlNet原理
笔记·学习