SAM附录详解

前言

《SAM:Segment Anything》论文精读笔记-CSDN博客

SAM模型细节分析 (附录内容)-CSDN博客


自动掩码生成细节

下面讨论用于生成发布数据集 SA-1B 的数据引擎全自动阶段的细节。

裁剪(Cropping)

掩码是通过在整张图像上以 32×32 的规则点网格进行采样生成的。此外,我们还使用了 2×2 和 4×4 的部分重叠窗口进行放大裁剪,在这些裁剪图像上分别使用 16×16 和 8×8 的规则点网格进行采样。裁剪使用的是原始高分辨率图像(这也是唯一一次使用原始图像)。我们移除了那些接触到裁剪区域内部边界的掩码。

我们使用标准的基于边界框的贪心非极大值抑制(NMS)方法,分两个阶段进行:

  1. 在每个裁剪区域内部进行 NMS:使用模型预测的 IoU 对掩码进行排序;
  2. 在所有裁剪区域之间进行 NMS:根据掩码来源的裁剪区域,从放大倍数最高的(即来自 4×4 裁剪)到放大倍数最低的(即原始图像)进行排序。

在这两个阶段中,我们都使用了 0.7 的 NMS 阈值。

过滤(Filtering)

我们使用了三个过滤器来提升掩码质量:

  1. 置信度过滤:只保留模型预测 IoU 分数大于等于 88.0 的掩码;
  2. 稳定性过滤:通过将同一个软掩码(soft mask)在不同阈值下二值化得到两个二值掩码,并比较它们之间的 IoU。只有当以 -1 和 +1 阈值得到的掩码之间的 IoU 大于等于 95.0 时,才保留以 0 阈值得到的掩码;
  3. 全图掩码过滤:我们发现有时自动生成的掩码会覆盖整个图像,这些掩码通常没有实际意义。因此我们过滤掉了覆盖面积超过图像 95% 的掩码。

所有过滤阈值的选择都旨在在保证掩码数量的同时,尽可能提高掩码质量,这一标准由专业标注人员根据第 5 节所述方法进行评估。

后处理(Postprocessing)

我们观察到两类可以通过后处理缓解的错误类型:

  1. 小的虚假区域:估计有 4% 的掩码包含小的、不相关的区域。为解决这一问题,我们移除了面积小于 100 像素的连通区域;如果一个掩码的最大区域也小于该阈值,则整个掩码都会被移除;
  2. 小的虚假空洞:估计也有约 4% 的掩码包含小的空洞。我们通过填充面积小于 100 像素的空洞来修复这些问题。空洞是通过对掩码取反后识别出的连通区域确定的。
自动掩码生成模型

我们为全自动掩码生成训练了一个特殊版本的 SAM 模型,该模型在推理速度上有所牺牲,但提升了掩码生成的质量。与默认的 SAM 模型相比,该版本的主要差异包括:

  • 仅在手动和半自动数据上进行训练;
  • 使用大规模抖动数据增强 [simple copy paste],训练迭代次数更长(177656 次,而非 90000 次);
  • 模拟交互训练仅使用点和掩码提示(不使用框),且在训练中每个掩码仅采样 4 个点(相比默认的 9 个点,这加快了训练速度,对 1 个点的性能无影响,但如果评估使用更多点,会降低 mIoU);
  • 掩码解码器使用了 3 层而非 2 层。

待更新

相关推荐
Francek Chen8 分钟前
【深度学习计算机视觉】10:转置卷积
人工智能·pytorch·深度学习·计算机视觉·卷积神经网络
Hy行者勇哥1 小时前
除 OpenAI/GPT-4o 等主流头部产品外,值得关注的 AI 及 Agent 产品有哪些?
人工智能
paopaokaka_luck1 小时前
基于SpringBoot+Vue的志行交通法规在线模拟考试(AI问答、WebSocket即时通讯、Echarts图形化分析、随机测评)
vue.js·人工智能·spring boot·后端·websocket·echarts
张较瘦_2 小时前
[论文阅读] AI+软件工程(DeBug)| 从11%到53%!双LLM驱动的工业级代码修复方案,Google数据集验证有效
论文阅读·人工智能·软件工程
奔跑的石头_2 小时前
GPT-5最新特性和优点
人工智能
MPCTHU2 小时前
Deep Learning|01 RBF Network
人工智能·深度学习
wa的一声哭了2 小时前
Deep Learning Optimizer | Adam、AdamW
人工智能·深度学习·神经网络·机器学习·自然语言处理·transformer·pytest
晨曦5432102 小时前
机器学习完整流程详解
人工智能·机器学习
算法与编程之美2 小时前
探索flatten的其他参数用法及对报错异常进行修正
人工智能·pytorch·python·深度学习·机器学习
IT_陈寒2 小时前
5种JavaScript性能优化技巧:从V8引擎原理到实战提速200%
前端·人工智能·后端