【李宏毅 | 深度学习】自注意力机制(Self-attention)

这里写目录标题

    • 引言
    • [Sequence Labeling](#Sequence Labeling)
    • Self-attention
    • 矩阵乘法
    • [Muti-head Self-attention(多头注意力机制)](#Muti-head Self-attention(多头注意力机制))

引言

以往我们遇到的深度学习问题中,对于神经网络的输入一般都是一个向量,输出可能是一个类别。如果增加输入的复杂度,例如输入的是多个向量,或者每次输入的向量的个数是会改变的。例如,在文字处理中,如果把一句话中的每一个单词作为一个向量,那么一个输入就会有多个向量,又因为不同样本的句子长度不同,所以每次输入的向量的个数也是会改变的。

那么输出会是什么情况呢?

第一种可能性是输入的每个向量都对应了一个输出,输入和输出的长度是一样的。例如输入一句话,让机器判断这句话中的每一个单词的词性,那么此时输入输出的长度就是一样的。

第二种情况是只需要输出一个label。例如文本情感分析,输入一句话让机器判断这句话是正面的还是消极的等等。

第三种情况是,不知道需要多少输出,由机器自己判断输出的数量。例如机器翻译,输入和输出是不同的语言。

本文主要介绍第一种情况的解决方案,这种情况又叫做 Sequence Labeling

Sequence Labeling

想要实现输入多个向量,输出同样数目的标签label,有一种解决方案就是FC (Fully-connected,一个神经网络),对于每一个向量执行一次FC,然后输出对应的标签。

但是这样做有很大的弊端。例如在判断词性的例子中,我们将一句话作为一个输入,而一句话由多个单词组成,每个单词都有其对应的向量(向量的生成方式有两种,one-hot encoding 和 word embedding)。我们让每个单词都经过一次FC,得到其对应的词性。但是在上图的例子中,一句话中的两个saw是不同词性的,但是通过相同的网络得到输出没有理由是不一样的,因为输入的向量完全一样。

那么可以考虑这句话的上下文信息,把一个单词的相邻单词也考虑进去。一次输入一个window里面的向量。

但是这样的方法还是有弊端,如果我们有一个任务不是要考虑一个window就可以解决的,而是要考虑整句话才能解决。那么把window设置成一句话的长度可以吗?显然不行,因为我们一开始就说过,每一个输入样本的长度是不定的。那么把window设置成所有样本输入中最长的那个样本的长度可以吗?看似可以,但是这样做会需要学习太多的参数,可能会造成过拟合。那么有什么解决方法呢?这就需要用到本文要介绍的 self-attention 机制。

Self-attention

Self-attention 是怎么应用的呢? 首先要把一整个句子中的所有向量都经过 Self-attention,输入几个向量,就输出几个向量。得到的输出向量都考虑了整个句子的所有上下文信息。然后再将考虑了整句话信息的向量作为输入,进行FC得到对应的输出标签。

Self-attention 是怎么运作的呢?

首先 Self-attention 的输入是多个向量,这些向量可能是一整个神经网络的输入,也可能是某个隐藏层的输出,所以在这里用 a a a 来表示输入。输出的向量用 b b b 来表示,每一个 b b b 都是考虑了所有的 a a a 而生成的。下面我们介绍 b b b 是如何产生的,以 b 1 b^1 b1 为例。

首先我们要根据 a 1 a^1 a1 找到整句话中和 a 1 a^1 a1 相关的其它向量。每一个相关的向量和 a 1 a^1 a1 的关联程度用一个数值 α \alpha α 来表示。

那么我们怎么找到其它向量和 a 1 a^1 a1 之间的关联性呢?我们使用 Dot-product 的计算方式得到 α \alpha α 。将两个向量作为输入,分别乘一个矩阵后得到两个新的矩阵 q 和 k q 和 k q和k,然后 q 和 k q 和 k q和k做内积,得到一个数值就是 α \alpha α。

那么我们现在将这种得到 α \alpha α 方式运用到我们的 self-attention 中。对于 a 1 a^1 a1 ,我们要对它分别和 a 2 a^2 a2 a 3 a^3 a3 a 4 a^4 a4 计算关联性。首先 a 1 a^1 a1 乘上 W q W^q Wq 得到 q 1 q^1 q1 向量, q 1 q^1 q1 有个名字叫做 query。接下来 a 2 a^2 a2 a 3 a^3 a3 a 4 a^4 a4 都要乘上 W k W^k Wk 得到 k k k 向量, k k k 有个名字叫做 key。 q 和 k q 和 k q和k 做内积就得到了 a l p h a alpha alpha, a l p h a alpha alpha 又叫做 attention score 。 α 1 , 2 {\alpha}_{1,2} α1,2 就表示 a 1 a^1 a1 和 a 2 a^2 a2之间的 attention score。

在实际操作中, a 1 a^1 a1 也要和自己计算关联性,也要将 a 1 a^1 a1 乘上 W k W^k Wk 得到 k 1 k^1 k1 ,然后去计算自己的关联性。

计算出 a 1 a^1 a1 和所有向量之间的关联性之后,接下来要做一个 soft-max ,得到 α ′ \alpha' α′。

然后我们根据 α ′ \alpha' α′ 抽取出这句话中的重要信息。我们将输入的每个向量先乘一个矩阵 W v W^v Wv 得到新的向量 v v v,然后再对每个 v v v 乘上对应的 α ′ \alpha' α′ 再加起来就得到了向量 b 1 b_1 b1。

根据上面的介绍,我们会想象到,如果 a 1 a^1 a1 和 a 2 a^2 a2 的关联性比较强, α 1 , 2 ′ {\alpha}_{1,2}^{'} α1,2′ 得到的值比较大,那么最终得到的 b 1 b^1 b1 的值就可能会比较接近 a 2 a^2 a2 。

矩阵乘法

现在我们通过矩阵乘法的角度来看一看 self-attention 是怎样运作的。

第一步,以 q q q 为例,因为每个 a i a^i ai 都是乘一个矩阵得到对应的 q i q^i qi, q i = W q a i q^{i}=W^{q}a^i qi=Wqai。我们把 a i a^i ai 拼接起来看作是一个矩阵 I I I,矩阵 I I I 的每一列就是 self-attention 的每一个输入,然后对 I I I左乘矩阵 W q W^q Wq,得到矩阵 Q Q Q, Q Q Q 的每一列就是 q i q^i qi 。同理,我们可以得到 K , V K,V K,V。

第二步,计算 attention score。我们把 k i k^i ki 拼接起来看作一个矩阵 K T K^T KT,每个 k i k^i ki 当作这个矩阵的一行,然后乘上矩阵 q 1 q^1 q1,就得到了一个矩阵,这个矩阵的每一行就是 a 1 a^1 a1 的每一个与之关联的 attention score。

同理, a 2 , a 3 , a 4 a^2,a^3,a^4 a2,a3,a4 也要计算 attention score,我们把 q i q^i qi 当作一个矩阵的列拼接成一个矩阵 Q Q Q。 Q Q Q 左乘 K T K^T KT 就得到了所有输入向量的 attention score,表示成矩阵 A A A,然后对 A A A 的每一列做 soft-max。

第三步,我们计算输出。我们把 v i v^i vi 拼接起来成矩阵 V V V,然后乘上矩阵 A ′ A' A′,得到输出矩阵 O O O。

综上,self-attention 的运作机制其实就是一连串的矩阵乘法。在这一系列矩阵中,只有矩阵 W q , W k , W v W^{q}, W^{k}, W^{v} Wq,Wk,Wv是未知的,是需要通过训练学习的参数。

Muti-head Self-attention(多头注意力机制)

以 2 heads 为例,先把输入向量 a a a 乘以一个矩阵得到 q q q,再把 q q q 乘以两个不同的矩阵得到两个不同的 q q q,这两个 q q q 用来表示两种不同的相关性。 q q q 有两个,对应的 k 和 v k和v k和v 也都有两个。 然后分别计算得到 b i , 1 , b i , 2 b^{i,1},b^{i,2} bi,1,bi,2。

把 b i , 1 , b i , 2 b^{i,1},b^{i,2} bi,1,bi,2 拼接起来,左乘一个矩阵,得到 b i b^i bi。

相关推荐
埃菲尔铁塔_CV算法11 分钟前
人工智能图像算法:开启视觉新时代的钥匙
人工智能·算法
EasyCVR12 分钟前
EHOME视频平台EasyCVR视频融合平台使用OBS进行RTMP推流,WebRTC播放出现抖动、卡顿如何解决?
人工智能·算法·ffmpeg·音视频·webrtc·监控视频接入
打羽毛球吗️18 分钟前
机器学习中的两种主要思路:数据驱动与模型驱动
人工智能·机器学习
好喜欢吃红柚子35 分钟前
万字长文解读空间、通道注意力机制机制和超详细代码逐行分析(SE,CBAM,SGE,CA,ECA,TA)
人工智能·pytorch·python·计算机视觉·cnn
小馒头学python39 分钟前
机器学习是什么?AIGC又是什么?机器学习与AIGC未来科技的双引擎
人工智能·python·机器学习
神奇夜光杯1 小时前
Python酷库之旅-第三方库Pandas(202)
开发语言·人工智能·python·excel·pandas·标准库及第三方库·学习与成长
正义的彬彬侠1 小时前
《XGBoost算法的原理推导》12-14决策树复杂度的正则化项 公式解析
人工智能·决策树·机器学习·集成学习·boosting·xgboost
Debroon1 小时前
RuleAlign 规则对齐框架:将医生的诊断规则形式化并注入模型,无需额外人工标注的自动对齐方法
人工智能
羊小猪~~1 小时前
神经网络基础--什么是正向传播??什么是方向传播??
人工智能·pytorch·python·深度学习·神经网络·算法·机器学习
AI小杨1 小时前
【车道线检测】一、传统车道线检测:基于霍夫变换的车道线检测史诗级详细教程
人工智能·opencv·计算机视觉·霍夫变换·车道线检测