sparse transformer 常见稀疏注意力

参考:

https://zhuanlan.zhihu.com/p/259591644

主要就是降低transformer自注意力模块的复杂度

复杂度主要就是 Q · K^T影响的,稀疏注意力就是在Q点乘K的转置这模块做文章

下列式一些sparse transformer稀疏注意力方法

a、transformer原始的 , Q · K^T,其中 K^T 表示 K 的转置

b、每个token与前后三个做自注意力计算

c、膨胀注意力(dilated attention):每个token与前后三个做自注意力计算,但这三个有间隔,就是比如第一个token看右面3,5,7

d、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token;sliding划窗见b

a、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token

b、划窗

c、见上面c

d、random

e、Q矩阵的123token 看 · K^T123token;Q矩阵的456token 看 · K^T456token 。。。。

相关推荐
ShiMetaPi1 分钟前
Seeing the Unseen:基于事件相机的暗光重构特征提取方案
人工智能·计算机视觉·事件相机·evs
华农DrLai1 分钟前
什么是Prompt模板?为什么标准化的格式能提高稳定性?
数据库·人工智能·gpt·nlp·prompt
像风一样自由20202 分钟前
我把 draw.io MCP 接进 VS Code Codex,直接生成了带动画连接器的 LSTM 架构图
人工智能·lstm·draw.io
柯儿的天空4 分钟前
【OpenClaw 全面解析:从零到精通】第 009 篇:OpenClaw Skills技能系统与ClawHub技能市场全解析
人工智能·自然语言处理·ai作画·tensorflow
腾视科技TENSORTEC4 分钟前
安全驾驶 智在掌控|腾视科技ES06终端,为车辆运营赋能
大数据·人工智能·科技·安全·ai·车载系统·车载监控
晓晓不觉早6 分钟前
GPT-5.4 mini/nano 双炮登场:OpenAI 开启「模型编队」新时代
人工智能·gpt
翱翔的苍鹰7 分钟前
什么是 Deep Agents?
人工智能·windows·语言模型·自然语言处理·langchain·开源
杜子不疼.9 分钟前
ToDesk 全新 ToClaw,正在把电脑交给AI去操作
人工智能
ShiLuoHeroKing10 分钟前
AI才不是石头里蹦出来的!一文带你看懂AI的“前世今生“
人工智能
新缸中之脑11 分钟前
用 autoresearch 优化万物
人工智能