8.19论文阅读

文章目录

  • [Graph-Segmenter: Graph Transformer with Boundary-aware Attention for Semantic Segmentation](#Graph-Segmenter: Graph Transformer with Boundary-aware Attention for Semantic Segmentation)
  • [SCSC: Spatial Cross-scale Convolution Module to Strengthen both CNNs and Transformers](#SCSC: Spatial Cross-scale Convolution Module to Strengthen both CNNs and Transformers)
  • [Deformable Mixer Transformer with Gating for Multi-Task Learning of Dense Prediction](#Deformable Mixer Transformer with Gating for Multi-Task Learning of Dense Prediction)

Graph-Segmenter: Graph Transformer with Boundary-aware Attention for Semantic Segmentation

方法


基于图的transformer,

有一定的参考价值

SCSC: Spatial Cross-scale Convolution Module to Strengthen both CNNs and Transformers

方法

就是层级思想

Deformable Mixer Transformer with Gating for Multi-Task Learning of Dense Prediction

方法

代码地址



他的这个是混合注意力

相关推荐
传说故事5 小时前
【论文阅读】Being-H0.7: A Latent World-Action Model from Egocentric Videos
论文阅读·人工智能·具身智能
YMWM_5 小时前
论文阅读《Diffusion Policy: Visuomotor Policy Learning via Action Diffusion》
论文阅读·diffusion·policy
m0_650108247 小时前
LoRA:大语言模型低秩适配
论文阅读·lora·大模型微调·经典方法
byzy7 小时前
【论文笔记】Vehicle-to-Everything Cooperative Perception for Autonomous Driving
论文阅读·深度学习·计算机视觉·自动驾驶
传说故事7 小时前
【论文阅读】Fast-WAM: Do World Action Models Need Test-time Future Imagination?
论文阅读·具身智能·vla
传说故事9 小时前
【论文阅读】StarVLA-α: Reducing Complexity in Vision-Language-Action Systems
论文阅读·人工智能·具身智能·vla
大模型最新论文速读10 小时前
RACER:无需训练,让大模型推理速度翻倍
论文阅读·人工智能·深度学习·机器学习·自然语言处理
传说故事10 小时前
【论文阅读】RADAR:通过语义规划与自主因果环境重置的闭环机器人数据生成
论文阅读·人工智能·机器人·具身智能
传说故事1 天前
【论文阅读】ViVa: A Video-Generative Value Model for Robot Reinforcement Learning
论文阅读·人工智能·强化学习·具身智能
joker_sxj1 天前
论文阅读-DeepSeek-mHC
论文阅读·算法