技术栈
注意力架构
算家云
21 小时前
人工智能
·
kimi
·
算家云
·
租算力,到算家云
·
算家计算
·
注意力架构
·
kimi linear
Kimi发布新一代注意力架构!线性注意力实现75% KV缓存减少、6倍解码速度提升
当前,主流大模型在处理长文本时存在两大根本性效率问题。其一是二次方时间复杂度,注意力分数的计算与序列长度的平方成正比,当文本长度大幅增加时,计算量将呈指数级增长。
我是有底线的