Meta第三代“分割一切”模型——SAM 3本地部署教程:首支持文本提示分割,400万概念、30毫秒响应,检测分割追踪一网打尽SAM 3 是一个统一的基础模型,用于图像和视频中的可提示分割。它可以使用文本或视觉提示(如点、框和掩码)来检测、分割和跟踪对象。与它的前身 SAM 2 相比,SAM 3 引入了根据简短的文本短语或示例详尽地分割所有开放词汇概念实例的能力。与先前的工作不同,SAM 3 可以处理更大范围的开放词汇提示。在新 SA-CO 基准测试 上,它达到了人类表现的 75-80%,该基准包含 27 万个独特概念,比现有基准多出 50 多倍。