各种attention的变体:MHA,GQA,MQA,MLA(DeepSeek-V2)详解

参考文章:DeepSeek-V2:

Multi-Head Attention (MHA)示意图:

Grouped-Query Attention (GQA)

减小KV head的数量,多个Query head共用一个KV head

Multi-Query Attention (MQA)

只有一个KV head,多个Query head共用一个KVhead

Multi-head Latent Attention(MLA)示意图:

MLA在DeepSeek-V2论文中被提出,

在生成QKV时,先将向量都down projection到低维度。

对于KV head部分,都由一个共用的低维度向量表示来up pojection出来多个head

在推理时,KV cache只用保存这个低维度的向量,在计算时由up projection还原到多个head的高维空间,这样做的好处是减小了KV cache

原论文中画的MLA的示意图:

具体计算方式:

其中的W^UK可以和W^UQ合并,W^UV和W^O可以合并

相关推荐
彼岸花开了吗2 小时前
构建AI智能体:四十五、从专用插件到通用协议:MCP如何重新定义AI工具生态
人工智能·python·mcp
tangdou3690986552 小时前
AI真好玩系列-Three.js手势控制游戏开发教程 | Interactive Game Development with Three.js Hand Con
前端·人工智能·ai编程
StableAndCalm2 小时前
什么是cuda
人工智能
许泽宇的技术分享2 小时前
当AI竞赛遇上云原生:EvalAI如何用450+挑战赛重新定义机器学习评估标准
人工智能·机器学习·云原生
测试人社区—84162 小时前
当AI遇见测试:构建自适应自修复测试框架的开源实践
人工智能
core5122 小时前
【实战】InternVideo2.5:基于 Python 实现高性能视频理解与多模态对话
人工智能·python·音视频·视频理解·internvideo
咚咚王者2 小时前
人工智能之数据分析 Pandas:第七章 相关性分析
人工智能·数据分析·pandas
科士威传动2 小时前
滚珠导轨平行度安装的关键步骤
人工智能·科技·机器学习·自动化·制造
咚咚王者2 小时前
人工智能之数据分析 Pandas:第六章 数据清洗
人工智能·数据分析·pandas