sparse transformer 常见稀疏注意力

参考:

https://zhuanlan.zhihu.com/p/259591644

主要就是降低transformer自注意力模块的复杂度

复杂度主要就是 Q · K^T影响的,稀疏注意力就是在Q点乘K的转置这模块做文章

下列式一些sparse transformer稀疏注意力方法

a、transformer原始的 , Q · K^T,其中 K^T 表示 K 的转置

b、每个token与前后三个做自注意力计算

c、膨胀注意力(dilated attention):每个token与前后三个做自注意力计算,但这三个有间隔,就是比如第一个token看右面3,5,7

d、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token;sliding划窗见b

a、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token

b、划窗

c、见上面c

d、random

e、Q矩阵的123token 看 · K^T123token;Q矩阵的456token 看 · K^T456token 。。。。

相关推荐
现在,此刻14 分钟前
李沐深度学习笔记D3-线性回归
笔记·深度学习·线性回归
能来帮帮蒟蒻吗39 分钟前
深度学习(2)—— 神经网络与训练
人工智能·深度学习·神经网络
新加坡内哥谈技术1 小时前
从文字到世界:空间智能是人工智能的下一个前沿
人工智能
oil欧哟1 小时前
文心 5.0 来了,百度大模型的破局之战
前端·人工智能·百度·prompt
玩转AGI1 小时前
一文看懂 Agentic AI:搭建单体 vs 多智能体系统,结果出乎意料!
人工智能
ai大模型分享员1 小时前
项目实战:基于RAPTOR RAG检索技术的工业设备故障诊断系统
人工智能
MUTA️2 小时前
什么是RKNN?
人工智能
倚栏听风雨2 小时前
2、Gemini里 交互模式和非交互模式区别
人工智能
illuspas2 小时前
MI50运算卡使用llama.cpp的ROCm后端运行Qwen3-Coder-30B-A3B的速度测试
人工智能·llama
illuspas2 小时前
MI50运算卡使用llama.cpp的ROCm后端运行gpt-oss-20b的速度测试
人工智能·gpt·llama