【Tools】大模型中的自注意力机制


摇来摇去摇碎点点的金黄

伸手牵来一片梦的霞光

南方的小巷推开多情的门窗

年轻和我们歌唱

摇来摇去摇着温柔的阳光

轻轻托起一件梦的衣裳

古老的都市每天都改变模样

🎵 方芳《摇太阳》


自注意力机制(Self-Attention)是一种在Transformer等大模型中经常使用的注意力机制。该机制通过对输入序列中的每个元素计算与其他元素之间的相似性,并根据相似性来决定每个元素对整个序列的注意力权重。

在自注意力机制中,输入序列被分为三个不同的向量:查询(query)、键(key)和值(value)。通过计算查询与键之间的相似性,可以得到查询对键的注意力分数。然后,将这些注意力分数与值进行加权求和,得到对各个值的加权表示,即通过自注意力机制得到的输出。具体来说,自注意力机制的计算过程如下:

  1. 首先,为了计算查询与键之间的相似性,可以使用点积(dot product)、缩放点积(scaled dot product)或者双线性(bilinear)函数。

  2. 然后,将查询与键之间的相似性通过softmax函数进行归一化,得到查询对键的注意力分布。

  3. 最后,将注意力分布与值进行加权求和,得到对各个值的加权表示作为自注意力机制的输出。

自注意力机制的优点在于它能够在计算每个元素的注意力权重时同时考虑到与其他元素的关系,而不是仅仅依赖于位置信息。这种全局的注意力机制使得模型能够更好地捕捉到输入序列中各个元素之间的长距离依赖关系,帮助提升模型的表达能力。因此,自注意力机制在自然语言处理任务中,如机器翻译和文本生成等,取得了很好的效果。

相关推荐
波动几何18 分钟前
极简万能通用AI Agent:universal-agent
人工智能
行者-全栈开发26 分钟前
腾讯地图 Map Skills 快速入门:从零搭建 AI 智能行程规划应用
人工智能·typescript·腾讯地图·ai agent·mcp 协议·map skills·智能行程规划
bryant_meng29 分钟前
【SLAM】Map Folding
计算机视觉·map·slam·激光雷达·回环检测
彩虹编程44 分钟前
通俗讲解LTN中的非逻辑符号、连接词、量词
人工智能·神经符号
DoUfp0bgq1 小时前
解决RDK X5(ARM64架构)板卡Remote-SSH运行Antigravity AI崩溃(SIGILL):Samba网络盘本地挂载方案
人工智能·架构·ssh
小小小怪兽1 小时前
⛏️深入RAG
人工智能·langchain
Kel1 小时前
Pi Monorepo Stream Event Flow 深度分析
人工智能·架构·node.js
ChatInfo1 小时前
AI 写代码的时代,为什么动态语言开始显得更“便宜”了?
人工智能·web api
AI医影跨模态组学1 小时前
Ann Oncol(IF=65.4)广东省人民医院放射科刘再毅等团队:基于深度学习CT分类器与病理标志物增强II期结直肠癌风险分层以优化辅助治疗决策
人工智能·深度学习·论文·医学·医学影像
L-影1 小时前
下篇:tool的四大门派,以及它到底帮AI干了什么
人工智能·ai·tool