一、模型介绍
SAM 3 是一个统一的基础模型,用于图像和视频中的可提示分割。它可以使用文本或视觉提示(如点、框和掩码)来检测、分割和跟踪对象。与它的前身 SAM 2 相比,SAM 3 引入了根据简短的文本短语或示例详尽地分割所有开放词汇概念实例的能力。与先前的工作不同,SAM 3 可以处理更大范围的开放词汇提示。在新 SA-CO 基准测试 上,它达到了人类表现的 75-80%,该基准包含 27 万个独特概念,比现有基准多出 50 多倍。
这一突破得益于一个创新的数据引擎,该引擎已自动注释超过 400 万个独特概念,创建了迄今为止最大的高质量开放词汇细分数据集。此外,SAM 3 引入了一种新的模型架构,具有一种存在令牌,能够更好地区分密切相关的文本提示(例如,"白衣玩家"与"红衣玩家"),以及一种解耦的检测器-追踪器设计,以最大限度减少任务干扰并高效扩展数据。

更多详情请见:sam3 · 模型库
二、部署流程
基础环境推荐:
| 环境名称 | 版本信息 |
|---|---|
| Ubuntu | 22.04.4 LTS |
| Cuda | V12.4 |
| Python | 3.12 |
| NVIDIA Corporation | RTX 4090 |
注:该模型对于显存占用要求较低。
1.更新基础软件包
查看系统版本信息
bash
#查看系统的版本信息,包括 ID(如 ubuntu、centos 等)、版本号、名称、版本号 ID 等
cat /etc/os-release

更新软件包列表
csharp
#更新软件列表
apt-get update

2.创建虚拟环境
创建虚拟环境
ini
#创建名为DeepSeek-OCR的虚拟环境,python版本:3.12
conda create -n sam3 python=3.12

激活虚拟环境
conda activate sam3

3.克隆仓库、安装依赖
特别的,如需要该模型可视化访问页面,这里推荐 huggingface 上官方给出的 gradio 页面模板
bash
git clone https://huggingface.co/spaces/hasanbasbunar/SAM3

同样的,使用该模板,也需要进入SAM3 目录下,安装所需依赖项

4.模型下载
这里推荐转到魔塔社区官网下载模型文件:sam3 · 模型库

使用命令行下载完整模型库
bash
#在下载前,请先通过如下命令安装
pip install modelscope

转到根目录下,创建 model 目录用于存放模型权重文件,在使用命令行下载 modelscope download --model 'facebook/sam3 ' --local_dir './'
bash
cd /
mkdir model
cd model
modelscope download --model 'facebook/sam3' --local_dir './'

5.修改 web 页面启动脚本
进入 /DeepSeek-OCR/DeepSeek-OCR-Demo 目录,修改其中的 web 启动代码 app.py:
bash
vim /SAM3/app.py
将模型的加载路径改为本地路径 /model/ , 以及 lunch 加载函数中设置 share=False,server_name='0.0.0.0',server_port=8080


6.运行脚本
bash
#执行修改好的 app.py 文件
python app.py

7.web 页面展示
将网址:http://localhost:8080/粘贴到浏览器中,便可与模型进行对话
