【Tools】大模型中的自注意力机制


摇来摇去摇碎点点的金黄

伸手牵来一片梦的霞光

南方的小巷推开多情的门窗

年轻和我们歌唱

摇来摇去摇着温柔的阳光

轻轻托起一件梦的衣裳

古老的都市每天都改变模样

🎵 方芳《摇太阳》


自注意力机制(Self-Attention)是一种在Transformer等大模型中经常使用的注意力机制。该机制通过对输入序列中的每个元素计算与其他元素之间的相似性,并根据相似性来决定每个元素对整个序列的注意力权重。

在自注意力机制中,输入序列被分为三个不同的向量:查询(query)、键(key)和值(value)。通过计算查询与键之间的相似性,可以得到查询对键的注意力分数。然后,将这些注意力分数与值进行加权求和,得到对各个值的加权表示,即通过自注意力机制得到的输出。具体来说,自注意力机制的计算过程如下:

  1. 首先,为了计算查询与键之间的相似性,可以使用点积(dot product)、缩放点积(scaled dot product)或者双线性(bilinear)函数。

  2. 然后,将查询与键之间的相似性通过softmax函数进行归一化,得到查询对键的注意力分布。

  3. 最后,将注意力分布与值进行加权求和,得到对各个值的加权表示作为自注意力机制的输出。

自注意力机制的优点在于它能够在计算每个元素的注意力权重时同时考虑到与其他元素的关系,而不是仅仅依赖于位置信息。这种全局的注意力机制使得模型能够更好地捕捉到输入序列中各个元素之间的长距离依赖关系,帮助提升模型的表达能力。因此,自注意力机制在自然语言处理任务中,如机器翻译和文本生成等,取得了很好的效果。

相关推荐
vocal13 分钟前
谷歌第七版Prompt Engineering—第一部分
人工智能
MonkeyKing_sunyuhua14 分钟前
5.6 Microsoft Semantic Kernel:专注于将LLM集成到现有应用中的框架
人工智能·microsoft·agent
arbboter21 分钟前
【AI插件开发】Notepad++ AI插件开发1.0发布和使用说明
人工智能·大模型·notepad++·ai助手·ai插件·aicoder·notepad++插件开发
IT_Octopus34 分钟前
AI工程pytorch小白TorchServe部署模型服务
人工智能·pytorch·python
果冻人工智能38 分钟前
AI军备竞赛:我们是不是正在造一个无法控制的神?
人工智能
暴龙胡乱写博客44 分钟前
OpenCV---图像预处理(四)
人工智能·opencv·计算机视觉
程序员辣条1 小时前
深度测评 RAG 应用评估框架:指标最全面的 RAGas
人工智能·程序员
curdcv_po1 小时前
字节跳动Trae:一款革命性的免费AI编程工具完全评测
人工智能·trae
程序员辣条1 小时前
为什么需要提示词工程?什么是提示词工程(prompt engineering)?为什么需要提示词工程?收藏我这一篇就够了!
人工智能·程序员·产品经理
孔令飞1 小时前
Go:终于有了处理未定义字段的实用方案
人工智能·云原生·go