大语言模型Ll M 这张图的核心信息是:随着模型规模变大,注意力(attention)层消耗的 FLOPs 占比越来越高,而 MLP 层占比反而下降。

这张图的核心信息是:随着模型规模变大,注意力(attention)层消耗的 FLOPs 占比越来越高,而 MLP 层占比反而下降。

一、FLOPs 是什么?

FLOPs(Floating Point Operations)是浮点运算次数,衡量模型计算量的单位。FLOPs 越高,训练或推理所需的计算资源越多。

二、图中数据解读(从左到右,模型从小到大)

模型大小 总 FLOPs MLP(FFN)占比 注意力(MHA)占比

760M 4.3E+15 44% 14.8%
1.3B 1.3E+16 51% 12.7%
2.7B 2.5E+16 56% 11.2%
6.7B 1.1E+17 65% 8.1%
13B 4.1E+17 69% 6.9%
30B 9.0E+17 74% 5.3%
66B 9.5E+17 77% 4.3%
175B 2.4E+18 80% 3.3%

三、关键结论(图中红字翻译)

"如果你只看小模型,会觉得 MLP 是计算瓶颈;但大模型里,attention 才是吞算力的主角。"
为什么?
• Attention 的 FLOPs 随序列长度 L 呈平方增长(O(L²))
• MLP 的 FLOPs 只随 L 线性增长(O(L))
所以:
• 小模型(短序列)时,MLP 占比高;
• 大模型(长序列)时,attention 的平方复杂度开始主导,哪怕它的占比数字看起来小,其实是因为总计算量太大,分母变大显得比例小。

四、总结一句话

优化 attention 层(比如用 FlashAttention、稀疏注意力、线性注意力)在大模型时代比优化 MLP 更划算。

相关推荐
财经资讯数据_灵砚智能1 分钟前
基于全球经济类多源新闻的NLP情感分析与数据可视化(夜间-次晨)2026年5月2日
人工智能·python·信息可视化·自然语言处理·ai编程
70asunflower2 分钟前
从硬件决策哲学到生态竞争壁垒
人工智能·芯片
2zcode2 分钟前
基于深度学习的口腔疾病自主诊断系统设计与实现(UI界面+训练代码+数据集)
人工智能·深度学习·口腔疾病
网络工程小王3 分钟前
【LangChain Prompt 完整指南】提示词篇
运维·人工智能·学习
weixin_397578025 分钟前
DeerFlow 2.0 深度解析
人工智能
量子-Alex6 分钟前
【大模型】EvoLM EvoLM: 探寻遗失的语言模型训练动态
人工智能·语言模型·自然语言处理
你可以叫我仔哥呀6 分钟前
Agent架构之ReAct
人工智能·ai·大模型
大象AI共学7 分钟前
我让AI写了个网页,它自动变成了视频
人工智能·音视频
ting94520007 分钟前
腾讯 Hy3 Preview (Free) 深度解析:免费体验 295B 参数顶级 MoE 大模型
人工智能
2601_956139428 分钟前
集团品牌全案公司哪家专业
大数据·人工智能·python