上下文视觉提示实现zero-shot分割检测及多visual-prompt改造

文章目录

  • [一、Closed-Set VS Open-set](#一、Closed-Set VS Open-set)
  • 二、DINOv
    • [2.1 论文和代码](#2.1 论文和代码)
    • [2.2 内容](#2.2 内容)
    • [2.3 安装部署](#2.3 安装部署)
    • [2.4 使用效果](#2.4 使用效果)
  • [三、多visual prompt 改造](#三、多visual prompt 改造)
    • [3.1 获取示例图mask](#3.1 获取示例图mask)
    • [3.2 修改函数参数](#3.2 修改函数参数)
    • [3.3 推理代码](#3.3 推理代码)
    • [3.4 效果的提升!](#3.4 效果的提升!)
  • 四、总结

本文主要介绍visual prompt模型DINOv,该模型可输入八张目标示例图作为参考,告诉模型我要找的目标长这样,在新的图片上进行推理,实现实例分割的效果。
   但一些复杂的场景,八张的示例图不能让模型完全的学习到目标的特征,因此扩展模型能力,让visual prompt数量不受限制,对实际场景应用是非常有必要的(附改造方法、改造代码)。

一、Closed-Set VS Open-set

Closed-Set模型只需要关注有限数量的已知类别,答案选项是预先定义的,这意味着模型的输出范围是有限的、固定的,并且只限于训练时已知的选项,例如YOLO;Open-Set模型可以识别不属于任何已知类别的样本,即其输出范围不是固定的,具备一定的泛化能力和鲁棒性,以应对这些未知的挑战,例如SAM。

在某些特定的应用场景中,仅仅依赖文本提示(text prompt)来描述目标对象,对于Open-Set大模型来说,可能并不足以实现精准识别。若能够额外提供示例图像(visual prompt),将有助于模型更准确地理解我们的意图,从而提升整体的识别效果。

下图是DINOv作者提供的demo界面,左上角输入油污推理图,左下角输入多张油污示例图,并用画笔进行mask,运行模型可得到右边的推理效果。

二、DINOv

2.1 论文和代码

论文名称:《Visual In-Context Prompting》

code:https://github.com/UX-Decoder/DINOv

demo:http://semantic-sam.xyzou.net:6099/

2.2 内容

上下文提示是一种利用少量示例任务来指导模型完成新任务的技术。在视觉任务中,这种技术可以通过提供一组带有标签的图像作为示例,来引导模型理解和解决新的视觉任务。

模型通过学习少量的带有标签的样本图像,提取出这些图像中的关键特征和模式,然后利用这些特征和模式来生成针对新图像的查询。这个查询可以引导模型在新图像中定位并分割出目标物体。具体来说,模型可能通过学习示例图像中的物体形状、颜色、纹理等特征,以及这些特征与标签之间的关系,来构造出查询。然后,模型将这个查询应用于其他图像,通过匹配和比较查询与图像中的特征,来定位并分割出目标物体。最终,模型会生成一个掩码,标记出分割出的物体区域。

以图片作为提示(visual prompt),在提示图上通过笔画、画mask等方法作为视觉prompt,可推理出侧视图中同类目标,达到zero-shot目标分割的效果。

说明:在降落伞进行mask标注,在新的降落伞场景可分割出降落伞,其他场景同理

2.3 安装部署

系统要求:gcc版本>=4.9

bash 复制代码
# 1、离线安装detectron2
# 下载https://github.com/MaureenZOU/detectron2-xyz.git
Unzip detectron2-xyz.zip  # 解压
Cd detectron2-xyz
Pip install -e .
# 2、离线安装panopticapi
# 下载https://github.com/cocodataset/panopticapi.git
Unzip panopticapi.zip  # 解压
Cd panopticapi
Pip install -e .
# 3、启动DINOv
# 下载DINOv,https://github.com/UX-Decoder/DINOv
Unzip DINOv.zip  # 解压
cd DINOv
python -m pip install -r requirements.txt
python demo_openset.py --ckpt /path/to/swinL/ckpt
# 终端返回下图链接

注:在浏览器访问public URL,建议使用梯子,local URL直接用即可

2.4 使用效果

通过界面输入八张示例图,在一些大目标、规整目标(如矩形、圆形),效果较好,在复杂场景、小目标、不规则物体,无法达到预期效果,例如墙缝缺陷,无法分割裂缝。

三、多visual prompt 改造

使用八张图片作为示例图,可能无法完全学习到目标。在实际使用中,我们可能采集到一小部分图片,例如50张、100张等;如何让DINOv不受限制,可支持多张输入呢?

3.1 获取示例图mask

使用labelme标注工具,生成json标注文件,使用下面代码将json转化为标注mask图。

python 复制代码
import json
import cv2
import os
import matplotlib.pyplot as plt
import numpy as np
 
def generate_mask(img_path, json_path, save_path):
    img = cv2.imread(img_path)
    img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    mask = np.zeros_like(img)


    with open(json_path, "r") as f:
        tmp = f.read()
     
    tmp = json.loads(tmp)
    tmp_shapes = tmp["shapes"]
    for shape in tmp_shapes:
        points = shape["points"]
        points = np.array(points, np.int32)
        cv2.fillPoly(mask, [points], (255, 255, 255)) 

    img_add = cv2.addWeighted(mask, 0.3,img,0.7,0)
    cv2.imwrite(save_path, mask)

if __name__ == "__main__":
    imgs_dir = "./imgs"    # 图片目录
    jsons_dir = "./jsons"  # 标注的json文件存放目录
    save_dir = "./masks"   # 生成mask图保存目录

    img_files = os.listdir(imgs_dir)
    for img_name in img_files:
        img_path = os.path.join(imgs_dir, img_name)
        json_path = os.path.join(jsons_dir, img_name.split('.')[0]+'.json')

        if os.path.exists(json_path):
            save_path = os.path.join(save_dir, img_name)
            generate_mask(img_path, json_path, save_path)

3.2 修改函数参数

修改文件路径:demo/openset_task.py

作用:将原8张图输入修改为列表不限制输入

python 复制代码
# 原代码31-37行
def task_openset(model,generic_vp1, generic_vp2, generic_vp3, generic_vp4,
                   generic_vp5, generic_vp6, generic_vp7, generic_vp8, image_tgt=None, text_size=640,hole_scale=100,island_scale=100):
    in_context_examples = [generic_vp1, generic_vp2, generic_vp3, generic_vp4,
                   generic_vp5, generic_vp6, generic_vp7, generic_vp8]
    in_context_examples = [x for x in in_context_examples if x is not None]
    t = []
    t.append(transforms.Resize(int(text_size), interpolation=Image.BICUBIC))
python 复制代码
# 替换代码
def task_openset(model,refer_img_list, image_tgt=None, text_size=640,hole_scale=100,island_scale=100):
    # in_context_examples = [generic_vp1, generic_vp2, generic_vp3, generic_vp4,
    #                generic_vp5, generic_vp6, generic_vp7, generic_vp8]
    in_context_examples = refer_img_list
    in_context_examples = [x for x in in_context_examples if x is not None]
    t = []
    t.append(transforms.Resize(int(text_size), interpolation=Image.BICUBIC))

3.3 推理代码

自定义imgs_dir、mask_dir、tgt_dir,执行代码,可在save_dir中找到结果图

python 复制代码
import torch
import argparse
from PIL import Image
import cv2
import os

from dinov.BaseModel import BaseModel
from dinov import build_model
from utils.arguments import load_opt_from_config_file

from demo.openset_task import task_openset 

def parse_option():
    parser = argparse.ArgumentParser('DINOv Demo', add_help=False)
    parser.add_argument('--conf_files', default="configs/dinov_sam_coco_swinl_train.yaml", metavar="FILE", help='path to config file', )
    parser.add_argument('--ckpt', default="model_swinL.pth", metavar="FILE", help='path to ckpt')
    parser.add_argument('--port', default=6099, type=int, help='path to ckpt', )
    args = parser.parse_args()

    return args


'''
build args
'''
args = parse_option()

'''
build model
'''

sam_cfg=args.conf_files

opt = load_opt_from_config_file(sam_cfg)

model_sam = BaseModel(opt, build_model(opt)).from_pretrained(args.ckpt).eval().cuda()

@torch.no_grad()
def inference(refer_img_list, image2,*args, **kwargs):
    with torch.autocast(device_type='cuda', dtype=torch.float16):
        model=model_sam
        a= task_openset(model, refer_img_list, image2, *args, **kwargs)
        return a

"""
读取image和labelme标注的mask图
推理一整个目录的图片
"""

def inference_dir(imgs_dir, mask_dir, tgt_dir, save_dir):
    files = os.listdir(tgt_dir)
    result_img_list = []

    for file in files:
        print(f'==={file}==')
        image_tgt_path = os.path.join(tgt_dir, file)
        image_tgt = Image.open(image_tgt_path).convert('RGB')

        refer_img_list = []

        img_files = os.listdir(imgs_dir)
        for img_name in img_files:
            img_path = os.path.join(imgs_dir, img_name)
            mask_path = os.path.join(mask_dir, img_name)

            if os.path.exists(mask_path):
                generic_vp= {"image":"", "mask":""}
                generic_vp["image"] = Image.open(img_path).convert('RGB')
                generic_vp["mask"] = Image.open(mask_path).convert('RGB')
                refer_img_list.append(generic_vp)
        # print(len(refer_img_list))
        res = inference(refer_img_list, image_tgt)
        res = cv2.cvtColor(res, cv2.COLOR_RGB2BGR)
        cv2.imwrite(os.path.join(save_dir, os.path.basename(image_tgt_path)), res)

if __name__ == "__main__":
    imgs_dir = "./test_img_2/group_50/refer/imgs"   # 示例图目录
    mask_dir = "./test_img_2/group_50/refer/masks"  # 示例mask图目录
    tgt_dir = "./test_img_2/tgt"     # 推理图目录
    save_dir = "results/group_50/"   # 结果保存目录
    inference_dir(imgs_dir, mask_dir, tgt_dir, save_dir)

3.4 效果的提升!

在验证多visual prompt对结果的影响,采用了对比实验。在光学镜头缺陷场景中,8张visual prompt和50张visual prompt进行对比,50张visual prompt得到的推理效果更优!

四、总结

如果文章对您有所帮助,记得点赞、收藏、评论探讨✌️

相关推荐
孙同学要努力1 小时前
全连接神经网络案例——手写数字识别
人工智能·深度学习·神经网络
Eric.Lee20211 小时前
yolo v5 开源项目
人工智能·yolo·目标检测·计算机视觉
其实吧32 小时前
基于Matlab的图像融合研究设计
人工智能·计算机视觉·matlab
丕羽3 小时前
【Pytorch】基本语法
人工智能·pytorch·python
ctrey_3 小时前
2024-11-1 学习人工智能的Day20 openCV(2)
人工智能·opencv·学习
SongYuLong的博客3 小时前
Air780E基于LuatOS编程开发
人工智能
Jina AI3 小时前
RAG 系统的分块难题:小型语言模型如何找到最佳断点?
人工智能·语言模型·自然语言处理
-派神-3 小时前
大语言模型(LLM)量化基础知识(一)
人工智能·语言模型·自然语言处理
johnny_hhh3 小时前
AI大模型重塑软件开发流程:定义、应用场景、优势、挑战及未来展望
人工智能
Elastic 中国社区官方博客3 小时前
释放专利力量:Patently 如何利用向量搜索和 NLP 简化协作
大数据·数据库·人工智能·elasticsearch·搜索引擎·自然语言处理