Self-Attention

前置知识:RNN,Attention机制

在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素和Source中的所有元素之间。

Self-Attention是在Source内部元素或者Target内部元素之间发生的Attention机制,也可以理解为Target=Source这种特殊情况下的注意力计算机制,相当于是Query=Key=Value,计算过程与Attention一样。

作用

Self-Attention模型可以理解为对RNN的替代,有着以下两个作用:

  • 引入Self-Attention后会更容易捕获句子中长距离的相互依赖的特征。Self-Attention在计算过程中会直接将句子中任意两个单词的联系通过一个计算步骤直接联系起来,所以远距离依赖特征之间的距离被极大缩短,有利于有效地利用这些特征。

  • Self Attention对于增加计算的并行性也有直接帮助作用。正好弥补了attention机制的两个缺点,这就是为何Self Attention逐渐被广泛使用的主要原因。

对于计算并行性的分析

Self-Attention使得Attention模型满足:

其中:

  • dk是Q和K的维度(矩阵中向量的个数,即列数)

对于位置信息的分析

这个位置信息ei不是学出来的,在paper里,是人手设置出来的,每个位置都不一样,代表在第几个positon。

我们构造一个p向量,这是一个one-hot向量,只有某一维为1,代表这个单元是第几个位置。

我们和x进行拼接再进行w的运算得到a,它又等价于右边的公式,相当于ai+ei:

相关推荐
Liue61231231几秒前
【YOLO11】基于C2CGA算法的金属零件涂胶缺陷检测与分类
人工智能·算法·分类
熵减纪元几秒前
人形机器人周末炸场:Atlas后空翻回归、宇树零下47度暴走、中国Bolt跑出10m/s | 2.8日报
人工智能·机器人·人形机器人
数据智能老司机1 分钟前
用于构建多智能体系统的智能体架构模式——智能体式AI架构:组件与交互
人工智能·llm·agent
松小鼠呀2 分钟前
倒反天罡!AI雇佣人类,100美元真到账
人工智能·大模型·科技热点
wengad2 分钟前
说说大模型的命名的含义
人工智能·大模型·基础设施
数据智能老司机3 分钟前
用于构建多智能体系统的智能体架构模式——多智能体协调模式
人工智能·llm·agent
CaracalTiger3 分钟前
OpenClaw-VSCode:在 VS Code 中通过 WebSocket 远程管理 OpenClaw 网关的完整方案
运维·ide·人工智能·vscode·websocket·开源·编辑器
硅谷秋水6 分钟前
REALM:用于机器人操作泛化能力的真实-仿真验证基准测试
人工智能·机器学习·计算机视觉·语言模型·机器人
AI周红伟9 分钟前
周红伟:智能体和大模型培训方案落地,电商场景的智能客服与营销方案
人工智能
摘星编程14 分钟前
RAG重塑搜索:如何用检索增强生成打造企业级AI问答系统
人工智能