初识Bert

在学习Bert之前我们先了解"递归神经网络(RNN Recurrent neural network)" 和 "长短期记忆(LSTM Long short-term memory)"

我们如果仅仅识别每个字的含义,那么在一句话中没有相同的字还是可以的但是如果一句话中有相同的字,那么我们进不能识别每个字的含义,因为有可能相同的字,位置不一样,词性也不一样,那么含义就会不一样。

因此就引出了 递归神经网络(RNN Recurrent neural network)和长短期记忆(LSTM Long short-term memory)

递归神经网络

RNN就是在传入模型的时候,也传入一个向量,就是一个记忆单元,我们可以形象的称为"传家宝",因为传家宝会一直串行的传下去这样就能。有了这个传家宝,就可以根据上文判断当前文字的词性。

因为是串行传递,如果一句话很长,这也导致RRN模型中记忆单元也就是"传家宝"中记录的东西过多,导致最前面的信息和最后面的信息很难对应,如:

当我们问"谁与赛罕塔拉结下了不解之缘?"时,"传家宝"里的东西已经记录前面的太多信息了,无法准确的找到主语"我"。

为了解决这个问题,因此引出"长短期记忆(LSTM Long short-term memory)"模型。

长短期记忆

LSTM模型就是,还是那上面的例子,问"谁与赛罕塔拉结下了不解之缘?"时,我们就会把"传家宝"上锁,不会让中间无关紧要的信息进入"传家宝",这样我们就能在"传家宝"当中找到我们想要的答案。

自注意力机制

通过学习RNN和LSTM模型,虽然问题已经解决,但是速度还是太慢了,先辈的巨人们就创造了Bart模型,在学习Bart模型前,我们要先了解自注意力机制(Self-attention)

所谓的注意力机制就是是一个特征转换器,考虑了句子整体的前后关系。注意力机制可以让模型在生成每个目标词的时候,选择性地"关注"源句子中相关联的部分,而不是等同对待整个源句子。

通俗一点,注意力机制就是对于每个事件所分担注意力的比例是多少。

那么𝛼1,1, 𝛼1,2, 𝛼1,3, 𝛼1,4这些都是怎么求的呢?

得到的𝛼1,1, 𝛼1,2, 𝛼1,3, 𝛼1,4其概率和不为1,因此在经过一次Soft-max,得到概率和为1,这样我们就得到了𝛼1分配给每个字多少的注意力

b1就是𝛼1看过整句话结合注意力得到的值 ,这样可以求得b2,b3,b4,在计算得过程中都是全部都是并行的,完全不需要等待前面得内容,因此速度很快。

下面是具体得计算过程,

我们把每个字,也就是表示成768维向量称之为token

Bert

Bert就是一个编码器,与他对应的就是GPT-2解码器,先逐步分析Bert的过程:

Inputs就是将一个字以one-hot的编码形式展示出来,传去Input Embeadding中,就是对应的"词Embeadding"进行的操作就是进行一次全连接Linear(22128,768);在进行一次Positional Encoding,就是对应的"位置 Embeadding",进行的操作是一次全连接Linear(512,768)。

经过两次全连接,进入的就是Muti-Head Attention(多头注意力机制),下面的三个箭头就是Wq、Wk、Wv,都是(768,768)的Linear,后面进行Norm,就是归一化,观察到还有一个箭头指向Add,这就是ResNet残差连接,因为有残差连接,网络才能走很深。传出还是768维。

传入Feed Forward,Feed Forward的操作就是进行两次全连接:nn.linear(768,3072)、nn.linear(3072,768),得到768维,在进行一次归一化和残差连接,这就算把特征提取出来了。

这就是Bert的一次完整的过程,当然,因为Bert整体的过程不改变维度,输入768维,输出768维,所以可以根据具体的情况进行N次。

这就是他们之间的关系

相关推荐
ZhuBin36522 分钟前
推测gpt4o视觉皮层建立的过程
人工智能·深度学习·计算机视觉
大数据追光猿25 分钟前
Qwen 模型与 LlamaFactory 结合训练详细步骤教程
大数据·人工智能·深度学习·计算机视觉·语言模型
何仙鸟42 分钟前
深度学习网格搜索实战
人工智能·深度学习
王国强20091 小时前
现代循环神经网络3-深度循环神经网络
深度学习
Wis4e2 小时前
基于PyTorch的深度学习5——神经网络工具箱
pytorch·深度学习·神经网络
闲人编程2 小时前
调试与性能优化技巧
人工智能·pytorch·深度学习
YoseZang2 小时前
【机器学习和深度学习】分类问题通用评价指标:精确率、召回率、准确率和混淆矩阵
深度学习·机器学习·分类算法
微臣愚钝2 小时前
《Generative Adversarial Nets》-GAN:生成对抗网络,一场伪造者与鉴定师的终极博弈
人工智能·深度学习
IT古董3 小时前
【漫话机器学习系列】128.预处理之训练集与测试集(Preprocessing Traning And Test Sets)
深度学习·机器学习·自然语言处理
JokerSZ.3 小时前
复现:latent diffusion(LDM)stable diffusion
人工智能·深度学习·stable diffusion·生成模型