【Transformer】Transformer and BERT(1)

文章目录

太...完整了!同济大佬唐宇迪博士终于把【Transformer】入门到精通全套课程分享出来了,最新前沿方向

学习笔记

Transformer

无法并行,层数比较少


词向量生成之后,不会变,没有结合语境信息的情况下,存在一词多义,无法处理

词如何编码成向量


第一句话中,it 和 animal 的相应最高

内积,正交的话内积为0,越相近(相关),内积越大


d k \sqrt{d_k} dk 的目的,向量维度越大,内积也越大, d k \sqrt{d_k} dk 起到 scale 的作用

对于每个输入 x1 ... xn, 计算一样的,可以并行为一个矩阵乘法

多头类比多个卷积核,来提取多种特征



不同的头得到的特征表达也不相同

多头包含在了 self-attention 中了

引入位置编码,形式有很多,比如 one-hot,原文中作者使用的是周期性信号进行编码

layer normalization 和 residual structure


encoder-decoder attention,encoder 的 K,V,decoder 的 Q

mask 机制:以翻译为例,不能透答案了,翻译到 I am a 的时候,student 要被 mask 起来,只能计算 I am a 的注意力

不能用后面未知的结果当成已知的条件

BERT


语料

预测出 mask,来训练提升特征编码能力


end-to-end 的形式,词编码表达和 task 一起训练


答案 d2->d3

相关推荐
哥布林学者2 小时前
吴恩达深度学习课程五:自然语言处理 第二周:词嵌入 课后习题与代码实践
深度学习·ai
HyperAI超神经3 小时前
加州大学构建基于全连接神经网络的片上光谱仪,在芯片级尺寸上实现8纳米的光谱分辨率
人工智能·深度学习·神经网络·机器学习·ai编程
杭州杭州杭州3 小时前
李沐动手学深度学习笔记(4)---物体检测基础
人工智能·笔记·深度学习
有Li5 小时前
学习通过皮层发育连续性迁移实现全生命周期脑解剖对应/文献速递-基于人工智能的医学影像技术
人工智能·深度学习·机器学习
狮子座明仔6 小时前
Plan-and-Act:让AI智能体学会“先想后做“
人工智能·深度学习·语言模型·自然语言处理
lixin5565568 小时前
基于迁移学习的图像风格增强器
java·人工智能·pytorch·python·深度学习·语言模型
byzh_rc8 小时前
[数学建模从入门到入土] 评价模型
网络·人工智能·深度学习·数学建模·回归·ar
Yngz_Miao9 小时前
【深度学习】语义分割损失函数之SemScal Loss
人工智能·深度学习·语义分割·损失函数·semscalloss
Dingdangcat869 小时前
YOLOv26_数字万用表端口连接检测与识别_基于深度学习的自动识别系统
人工智能·深度学习·yolo
新缸中之脑9 小时前
微调 BERT 实现命名实体识别
人工智能·深度学习·bert