【论文精读(二十三)】PointMamba:点云界的“凌波微步”,线性复杂度终结 Transformer 霸权(NeurIPS 2024)博主导读: 在点云分析的武林中,Transformer 家族(如 Point-MAE, PointGPT)凭借着强大的“全局注意力”心法,坐稳了 SOTA 的盟主宝座。但它们有一个致命的软肋:太重了! 自注意力机制 O ( N 2 ) O(N^2) O(N2) 的复杂度,就像是一个体重 300 斤的大力士,虽然力大无穷,但遇到大规模场景(N 变大)时,显存直接爆炸,速度慢如蜗牛。 这时候,隔壁 NLP 领域杀出了一匹黑马——Mamba。它号称拥有 Transformer 的全局视野,却只有 RNN