sparse transformer 常见稀疏注意力

参考:

https://zhuanlan.zhihu.com/p/259591644

主要就是降低transformer自注意力模块的复杂度

复杂度主要就是 Q · K^T影响的,稀疏注意力就是在Q点乘K的转置这模块做文章

下列式一些sparse transformer稀疏注意力方法

a、transformer原始的 , Q · K^T,其中 K^T 表示 K 的转置

b、每个token与前后三个做自注意力计算

c、膨胀注意力(dilated attention):每个token与前后三个做自注意力计算,但这三个有间隔,就是比如第一个token看右面3,5,7

d、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token;sliding划窗见b

a、全局token是第一二个token看所有的token,3及后面的token只看· K^T 矩阵的1、2token

b、划窗

c、见上面c

d、random

e、Q矩阵的123token 看 · K^T123token;Q矩阵的456token 看 · K^T456token 。。。。

相关推荐
milo.qu4 分钟前
AI人工智能-PyCharm的介绍&安装&应用
人工智能·python·pycharm
Elastic 中国社区官方博客33 分钟前
Elasticsearch:使用 Azure AI 文档智能解析 PDF 文本和表格数据
大数据·人工智能·elasticsearch·搜索引擎·pdf·全文检索·azure
量子位35 分钟前
GPT-4o 骗了所有人,逐行画图只是前端特效?!底层架构细节成迷,奥特曼呼吁大家别玩了
人工智能·gpt
神经星星36 分钟前
入选CVPR 2025!深圳大学团队等提出EchoONE,可精准分割多切面超声心动图
人工智能·深度学习·机器学习
东锋1.337 分钟前
DeepSeek V3可用的15种精美知识卡片提示词
人工智能·信息可视化
量子位38 分钟前
国产 AI 起号两周就开始自己赚钱了,全球首个 “边想边干” 的 Agent | 免费无限次
人工智能·aigc
量子位41 分钟前
嚯!OpenAI 最新内幕八卦. pdf
人工智能·openai
有一只柴犬1 小时前
3. 实战(一):Spring AI & Trae ,助力开发微信小程序
人工智能·spring·微信小程序
轻松Ai享生活1 小时前
LLM 文档摘要:技术、指标和模型
人工智能
程序员JerrySUN2 小时前
走进 detect.tflite:树莓派目标检测背后的核心模型详解
人工智能·目标检测·计算机视觉