point cloud

deep_drink13 天前
深度学习·神经网络·计算机视觉·3d·pcm·point cloud
【论文精读(二十五)】PCM:Mamba 首次杀入 3D 点云,线性复杂度吊打 PTv3(ArXiv 2024)Zhang, T., Yuan, H., Qi, L., et al. (2024). Point Cloud Mamba: Point Cloud Learning via State Space Model. arXiv.
deep_drink15 天前
人工智能·深度学习·神经网络·transformer·point cloud
【论文精读(二十三)】PointMamba:点云界的“凌波微步”,线性复杂度终结 Transformer 霸权(NeurIPS 2024)博主导读:   在点云分析的武林中,Transformer 家族(如 Point-MAE, PointGPT)凭借着强大的“全局注意力”心法,坐稳了 SOTA 的盟主宝座。但它们有一个致命的软肋:太重了! 自注意力机制 O ( N 2 ) O(N^2) O(N2) 的复杂度,就像是一个体重 300 斤的大力士,虽然力大无穷,但遇到大规模场景(N 变大)时,显存直接爆炸,速度慢如蜗牛。   这时候,隔壁 NLP 领域杀出了一匹黑马——Mamba。它号称拥有 Transformer 的全局视野,却只有 RNN
deep_drink1 个月前
深度学习·神经网络·计算机视觉·3d·point cloud
【论文精读(二十二)】PointMeta:点云江湖的“兵器谱”,用元架构终结算子内卷(CVPR 2023)博主导读:   在点云深度学习的江湖里,各路门派为了争夺 SOTA 盟主之位,练就了各种花哨的武功。从 PointNet++ 的“球查询”,到 DGCNN 的“动态图”,再到 Point Transformer 的“自注意力”,网络结构越来越复杂,公式越来越长。   但这就带来了一个大麻烦:大家的招式都太独特了,根本没法公平比武。 当一个新的 SOTA 出现时,我们不知道它变强是因为它的“内功心法”(算子设计)真的好,还是因为它偷偷吃了“大力丸”(训练技巧、数据增强)。   PointMeta 站出来做了
deep_drink1 个月前
深度学习·神经网络·计算机视觉·3d·point cloud
【论文精读(十八)】SPoTr:拒绝盲目采样,自定位探针(Self-Positioning)如何“以点带面”?(CVPR 2023)博主导读:   在点云 Transformer 的江湖里,各大门派(PointNet++, PTv1, PTv2)似乎都遵守着一个不成文的规定:“远亲不如近邻”。为了节省算力,大家纷纷画地为牢,只在 k-NN 或 球查询 (Ball Query) 划定的局部圈子里折腾。   但这种“几何邻域”真的靠谱吗?一只细长的椅子腿,它的几何邻居可能是地板,但它真正的“语义亲戚”其实是远在另一头的椅子背。单纯的局部注意力,注定是“只见树木,不见森林”。   SPoTr (Self-Positioning Transf
我是有底线的