Google BERT入门(3)Transformer的自注意力机制的理解(上)

文章目录


4.自注意力机制的理解

我们学习了如何计算查询矩阵Q、键矩阵K和值矩阵V,并且我们还了解到它们是从输入矩阵X中获得的。现在,让我们看看查询、键和值矩阵在自注意力机制中是如何被使用的。

我们了解到,为了计算一个单词的表示,自注意力机制将该单词与给定句子中的所有单词联系起来。考虑句子"I love learning"。为了计算单词"I"的表示(representation),我们将单词"I"与句子中的所有单词联系起来,如下所示:

图1.8 - 自注意力示例

但我们为什么要这样做呢?理解一个单词如何与句子中的所有单词相关联有助于我们学习更好的表示(representation)。现在,让我们学习自注意力机制如何使用查询、键和值矩阵将一个单词与句子中的所有单词联系起来。自注意力机制包括四个步骤;接下来我们来考察每个步骤。

步骤 1

自注意力机制的第一步是计算查询矩阵Q和键矩阵KT的点积:

图1.9 - 查询和键矩阵

以下展示了查询矩阵Q和键矩阵KT的点积结果:

图1.10 - 计算查询矩阵和键矩阵的点积

但是,计算查询矩阵和键矩阵之间的点积有什么用?究竟是什么意思?让我们通过详细查看Q﹒KT的结果来理解这一点。

让我们看看Q﹒KT矩阵的第一行,如下所示。我们可以观察到,我们正在计算查询向量q1(I)和所有键向量------k1(I)、k2(love)和k3(learning)之间的点积。两个向量的点积的意义是它们的相似性。

因此,计算查询向量(q1)和键向量(k1、k2和k3)之间的点积可以告诉我们查询向量q1(I)与所有键向量------k1(I)、k2(love)和k3(learning)有多么相似。通过查看Q﹒KT矩阵的第一行,我们可以理解单词"I"与单词"love"和"learning"相比,与自己更为相关,因为q1.k1比q1.k2和q1.k3的点积值更高:

图1.11 - 计算查询向量(q 1)和键向量(k 1 、k 2 和 k 3)之间的点积

请注意,本章中使用的值是任意的,只是为了让我们更好地理解。

现在,让我们看看矩阵Q﹒KT的第二行。如下图所示,我们可以观察到我们正在计算查询向量q2(love)和所有键向量------k1(I)、k2(love)和k3(learning)之间的点积。这告诉我们查询向量q2(love)与键向量------k1(I)、k2(love)和k3(learning)有多么相似。

通过查看矩阵的第二行,我们可以理解单词"love"与单词"I"和"learning"相比,与自己更为相关,因为q2.k2比q2.k1和q2.k3的点积值更高:

图1.12 - 计算查询向量(q 2)和键向量(k 1 、k 2 和 k 3)之间的点积

同样,让我们看看矩阵Q﹒KT的第三行。如下图所示,我们可以观察到我们正在计算查询向量q3(learning)和所有键向量------k1(I)、k2(love)和k3(learning)之间的点积。这告诉我们查询向量(learning)与所有键向量------k1(I)、k2(love)和k3(learning)有多么相似。

通过查看矩阵的第三行,我们可以理解单词"learning"在句子中与单词"I"和"love"相比,与自己更为相关,因为q3.k3比q3.k1和q3.k2的点积值更高:

图1.13 - 计算查询向量(q 3)和键向量(k 1 、k 2 和 k 3)之间的点积

因此,我们可以说,计算查询矩阵Q和键矩阵KT的点积本质上给出了相似度分数,这有助于我们理解句子中的每个单词与其他单词有多么相似。

步骤 2

自注意力机制的下一步是将矩阵Q﹒KT除以键向量维度的平方根。但我们为什么要这样做呢?这在获得稳定梯度方面是有用的。

设键向量的维度为dk。然后,我们将 Q.KT除以sqrt(dk)。键向量的维度是64,其平方根为8。因此,我们按照下图所示,将 Q.KT除以8:

图1.14 - 将 Q.KT除以键向量维度的平方根

步骤 3

通过观察前面的相似度分数,我们可以理解它们处于未归一化的形式。因此,我们使用softmax函数对它们进行归一化。应用softmax函数有助于将分数范围限制在0到1之间,并且分数的总和等于1,如下图所示:

图1.15 - 应用softmax函数

我们可以将前面的矩阵称为分数矩阵。借助这些分数,我们可以理解句子中的每个单词如何与句子中的所有单词相关。例如,查看前面分数矩阵的第一行;它告诉我们单词"I"与自身的关联度为90%,与单词"love"的关联度为7%,与单词"learning"的关联度为3%。

相关推荐
小天才才6 分钟前
前沿论文汇总(机器学习/深度学习/大模型/搜广推/自然语言处理)
人工智能·深度学习·机器学习·自然语言处理
l木本I10 分钟前
大模型低秩微调技术 LoRA 深度解析与实践
python·深度学习·自然语言处理·lstm·transformer
新加坡内哥谈技术36 分钟前
Meta计划借助AI实现广告创作全自动化
运维·人工智能·自动化
盛寒1 小时前
自然语言处理 目录篇
大数据·自然语言处理
拾忆-eleven1 小时前
NLP学习路线图(三十):微调策略
自然语言处理·nlp
西猫雷婶1 小时前
pytorch基本运算-导数和f-string
人工智能·pytorch·python
Johny_Zhao1 小时前
华为MAAS、阿里云PAI、亚马逊AWS SageMaker、微软Azure ML各大模型深度分析对比
linux·人工智能·ai·信息安全·云计算·系统运维
顽强卖力1 小时前
第二十八课:深度学习及pytorch简介
人工智能·pytorch·深度学习
述雾学java1 小时前
深入理解 transforms.Normalize():PyTorch 图像预处理中的关键一步
人工智能·pytorch·python
武子康1 小时前
大数据-276 Spark MLib - 基础介绍 机器学习算法 Bagging和Boosting区别 GBDT梯度提升树
大数据·人工智能·算法·机器学习·语言模型·spark-ml·boosting