CVPR Efficient ViM:视觉 Mamba 的轻量化

2025 CVPR 的新 Paper《Efficient ViM》,专门解决轻量级视觉模型中 Attention 计算太慢 和 标准 Mamba 参数冗余 的痛点!提出了一种在"隐状态"空间做混合的高效算法。

论文原文 :https://arxiv.org/pdf/2411.15241

代码:https://github.com/mlvlab/EfficientViM

即插即用代码仓库:https://github.com/AITricks/AITricks

1️⃣ 核心痛点:Attention 太慢,Mamba 还不够快

CNN:提取局部特征快,但看完全局很吃力。

ViT:能看全局,但计算量是,Token 一多直接卡死。

标准 Mamba:虽然是线性复杂度 ,但投影层的计算量依然很大,且内存访问是瓶颈。

2️⃣ 核心架构:Efficient ViM

宏观:采用 4 阶段的金字塔结构,逐步降低分辨率。

微观:引入了 HSM-SSD 模块 替代传统的 Attention 或卷积模块。

单头设计:作者发现"多头"机制在轻量级模型上会增加显存读写负担,所以改成了更高效的"单头"模式。

3️⃣ 核心创新:HSM-SSD

传统 SSD:是在庞大的 Token 序列上做通道混合,计算量大。

HSM-SSD:"曲线救国"。它先不急着混合,而是把特征压缩到极小的隐状态里,然后在隐状态空间里做混合。

效果:因为隐状态维度远小于序列长度,计算量直接暴跌,实现了"在压缩空间做昂贵运算"。

4️⃣ 增强魔法:MSF (多阶段隐状态融合)

原理:把浅层的隐状态直接传给深层。

作用:就像给模型装了"记忆体",让深层网络能回忆起图像的纹理细节,弥补了轻量级模型表征能力弱的短板。

5️⃣ 实验结果:吊打 MobileNet 和 SHVIT

速度/精度权衡:Efficient ViM-S 在精度达到 75.3% 的同时,推理延迟仅 0.6ms。

对比竞品:相比于最新的轻量级 SOTA 模型 SHVIT-S1,Efficient ViM 在相同精度下,推理速度快了 1.3 倍;相比于经典的 MobileNetV3,精度大幅提升。

总结:Efficient ViM 证明了 "隐状态操作" 是轻量级 Mamba 的正确打开方式。

#深度学习 #计算机视觉 #科研 #科研日常 #论文 #论文分享 #mamba #算法 #科研学习

相关推荐
三品吉他手会点灯7 小时前
C语言学习笔记 - 20.C编程预备计算机专业知识 - 变量为什么必须的初始化【重点】
c语言·笔记·学习
kobesdu7 小时前
【ROS2实战笔记-12】rosshow:终端里的盲文可视化与无头机器人的现场调试
笔记·机器人·ros·移动机器人
sakiko_7 小时前
UIKit学习笔记1-创建项目(使用UIKit)、使用组件
笔记·学习
智者知已应修善业8 小时前
【51单片机中的打飞机设计】2023-8-25
c++·经验分享·笔记·算法·51单片机
大刘讲IT8 小时前
AI重塑企业信息价值标准:从“系统供给”到“用户定义”的企业数字化新范式
人工智能·经验分享·ai·制造
智者知已应修善业10 小时前
【51单片机按键调节占空比3位数码管显示】2023-8-24
c++·经验分享·笔记·算法·51单片机
JasmineX-111 小时前
数据结构(笔记)——双向链表
c语言·数据结构·笔记·链表
程序猿乐锅12 小时前
【Tilas|第三篇】多表SQL语句
数据库·经验分享·笔记·学习·mysql
AOwhisky12 小时前
Kubernetes 学习笔记:集群管理、命名空间与 Pod 基础
linux·运维·笔记·学习·云原生·kubernetes
sakiko_14 小时前
UIKit学习笔记2-组件嵌套、滚动视图等
笔记·学习·objective-c·swift·uikit