小目标

一勺汤4 天前
yolo·注意力机制·遮挡·yolo11·yolo11改进·小目标·scsa
YOLO11 改进、魔改| 空间与通道协同注意力模块SCSA,通过空间与通道注意力的协同作用,提升视觉任务的特征提取能力与泛化性能。现有即插即用注意力机制多分为通道注意力、空间注意力及混合注意力三类,但普遍存在两大局限:一是未能充分利用特征中固有的多语义空间信息,难以有效引导空间和通道维度的关键特征提取;二是对特征图间多语义信息导致的语义差异和交互问题处理不足,限制了其在检测、分割等细粒度任务中的适配性。为解决这些问题,SCSA 聚焦维度解耦、轻量化多语义引导和语义差异缓解,探索空间与通道注意力的协同关系。
一勺汤18 天前
线性代数·yolo·矩阵·yolov12·yolo12·yolo12改进·小目标
YOLO12 改进、魔改|秩增强线性注意力RALA,通过增强 KV 缓冲与输出特征的矩阵秩,增强 YOLO 对小目标、复杂场景目标的识别能力Transformer 中的 Softmax 注意力因二次复杂度难以适配视觉任务,线性注意力虽将复杂度降至线性,但输出特征图的低秩特性导致空间建模能力不足,性能显著落后于 Softmax 注意力,RALA 正是为解决这一线性注意力的低秩困境而提出。
一勺汤5 个月前
深度学习·yolo·yolov12·yolo12·yolo12改进·小目标·mamba like
多尺度频率辅助类 Mamba 线性注意力模块(MFM),融合频域和空域特征,提升多尺度、复杂场景下的目标检测能力在伪装物体检测领域,现有方法大多依赖空间局部特征,难以有效捕捉全局信息,而 Transformer 类方法虽能建模长距离依赖关系,却存在计算成本高、网络结构复杂的问题。同时,频域特征虽具备全局建模能力,可频繁的频域与空域转换会增加计算复杂度。此外,Mamba 方法凭借高效的注意力机制和轻量化设计,在降低计算成本方面展现出巨大潜力,但其在伪装物体检测中的应用尚未被充分探索。基于此,为解决传统方法在全局信息捕捉和计算效率上的不足,MFM 模块应运而生,它融合频域和空域特征,通过多尺度策略进一步提取全局信息,优
一勺汤6 个月前
yolo·计算机视觉·多尺度·yolo12·yolo12改进·lsconv·小目标
YOLO12 改进|融入 大 - 小卷积LS Convolution 捕获全局上下文与小核分支提取局部细节,提升目标检测中的多尺度传统卷积核尺寸固定(如 3×3、5×5),在目标检测任务中面临两难:小卷积核(如 YOLOv5/YOLOv8 中的 3×3):计算高效但感受野有限,对大目标或密集场景建模能力不足。大卷积核(如 11×11、13×13):能捕获全局上下文,但参数量爆炸(如 13×13 卷积参数量是 3×3 的 20 倍以上),易过拟合且计算低效。LS Convolution(Large-Small Convolution) 应运而生,旨在平衡全局感知与局部细节,并通过结构创新降低大核计算成本
我是有底线的