Google BERT入门(3)Transformer的自注意力机制的理解(上)

文章目录


4.自注意力机制的理解

我们学习了如何计算查询矩阵Q、键矩阵K和值矩阵V,并且我们还了解到它们是从输入矩阵X中获得的。现在,让我们看看查询、键和值矩阵在自注意力机制中是如何被使用的。

我们了解到,为了计算一个单词的表示,自注意力机制将该单词与给定句子中的所有单词联系起来。考虑句子"I love learning"。为了计算单词"I"的表示(representation),我们将单词"I"与句子中的所有单词联系起来,如下所示:

图1.8 - 自注意力示例

但我们为什么要这样做呢?理解一个单词如何与句子中的所有单词相关联有助于我们学习更好的表示(representation)。现在,让我们学习自注意力机制如何使用查询、键和值矩阵将一个单词与句子中的所有单词联系起来。自注意力机制包括四个步骤;接下来我们来考察每个步骤。

步骤 1

自注意力机制的第一步是计算查询矩阵Q和键矩阵K^T^的点积:

图1.9 - 查询和键矩阵

以下展示了查询矩阵Q和键矩阵K^T^的点积结果:

图1.10 - 计算查询矩阵和键矩阵的点积

但是,计算查询矩阵和键矩阵之间的点积有什么用?究竟是什么意思?让我们通过详细查看Q﹒K^T^的结果来理解这一点。

让我们看看Q﹒K^T^矩阵的第一行,如下所示。我们可以观察到,我们正在计算查询向量q1(I)和所有键向量------k1(I)、k2(love)和k3(learning)之间的点积。两个向量的点积的意义是它们的相似性。

因此,计算查询向量(q1)和键向量(k1、k2和k3)之间的点积可以告诉我们查询向量q1(I)与所有键向量------k1(I)、k2(love)和k3(learning)有多么相似。通过查看Q﹒K^T^矩阵的第一行,我们可以理解单词"I"与单词"love"和"learning"相比,与自己更为相关,因为q1.k1比q1.k2和q1.k3的点积值更高:

图1.11 - 计算查询向量(q 1)和键向量(k 1 、k 2 和 k 3)之间的点积

请注意,本章中使用的值是任意的,只是为了让我们更好地理解。

现在,让我们看看矩阵Q﹒K^T^的第二行。如下图所示,我们可以观察到我们正在计算查询向量q2(love)和所有键向量------k1(I)、k2(love)和k3(learning)之间的点积。这告诉我们查询向量q2(love)与键向量------k1(I)、k2(love)和k3(learning)有多么相似。

通过查看矩阵的第二行,我们可以理解单词"love"与单词"I"和"learning"相比,与自己更为相关,因为q2.k2比q2.k1和q2.k3的点积值更高:

图1.12 - 计算查询向量(q 2)和键向量(k 1 、k 2 和 k 3)之间的点积

同样,让我们看看矩阵Q﹒K^T^的第三行。如下图所示,我们可以观察到我们正在计算查询向量q3(learning)和所有键向量------k1(I)、k2(love)和k3(learning)之间的点积。这告诉我们查询向量(learning)与所有键向量------k1(I)、k2(love)和k3(learning)有多么相似。

通过查看矩阵的第三行,我们可以理解单词"learning"在句子中与单词"I"和"love"相比,与自己更为相关,因为q3.k3比q3.k1和q3.k2的点积值更高:

图1.13 - 计算查询向量(q 3)和键向量(k 1 、k 2 和 k 3)之间的点积

因此,我们可以说,计算查询矩阵Q和键矩阵K^T^的点积本质上给出了相似度分数,这有助于我们理解句子中的每个单词与其他单词有多么相似。

步骤 2

自注意力机制的下一步是将矩阵Q﹒K^T^除以键向量维度的平方根。但我们为什么要这样做呢?这在获得稳定梯度方面是有用的。

设键向量的维度为dk。然后,我们将 Q.K^T^除以sqrt(dk)。键向量的维度是64,其平方根为8。因此,我们按照下图所示,将 Q.K^T^除以8:

图1.14 - 将 Q.K^T^除以键向量维度的平方根

步骤 3

通过观察前面的相似度分数,我们可以理解它们处于未归一化的形式。因此,我们使用softmax函数对它们进行归一化。应用softmax函数有助于将分数范围限制在0到1之间,并且分数的总和等于1,如下图所示:

图1.15 - 应用softmax函数

我们可以将前面的矩阵称为分数矩阵。借助这些分数,我们可以理解句子中的每个单词如何与句子中的所有单词相关。例如,查看前面分数矩阵的第一行;它告诉我们单词"I"与自身的关联度为90%,与单词"love"的关联度为7%,与单词"learning"的关联度为3%。

相关推荐
远洋录4 分钟前
大型前端应用状态管理实战:从 Redux 到 React Query 的演进之路
前端·人工智能·react
coldstarry10 分钟前
sheng的学习笔记-AI-自然语言处理(NLP),机器翻译,情感分类,词嵌入
人工智能·深度学习·自然语言处理·机器翻译
小雄abc17 分钟前
决定系数R2 浅谈三 : 决定系数R2与相关系数r的关系、决定系数R2是否等于相关系数r的平方
经验分享·笔记·深度学习·算法·机器学习·学习方法·论文笔记
高山莫衣20 分钟前
【返璞归真】-Lasso 回归(Least Absolute Shrinkage and Selection Operator,最小绝对值收缩和选择算子)
人工智能·数据挖掘·回归
Yeats_Liao25 分钟前
华为开源自研AI框架昇思MindSpore应用案例:基于MindSpore框架的SGD优化器案例实现
人工智能
AI浩1 小时前
激活函数在神经网络中的作用,以及Tramformer中的激活函数
人工智能·深度学习·神经网络
杨善锦1 小时前
mobile one神经网络
人工智能·深度学习·神经网络
Thanks_ks1 小时前
深入探索现代 IT 技术:从云计算到人工智能的全面解析
大数据·人工智能·物联网·云计算·区块链·数字化转型·it 技术
东方佑2 小时前
给图像去除水印攻
人工智能·python
知来者逆2 小时前
Layer-Condensed KV——利用跨层注意(CLA)减少 KV 缓存中的内存保持 Transformer 1B 和 3B 参数模型的准确性
人工智能·深度学习·机器学习·transformer