DINOv3 demo

本文将介绍如何使用 ModelScope(魔搭) 平台提供的 DINOv3 预训练模型,在本地进行批量图像特征提取,并输出可用于后续融合或蒸馏的特征向量。全程无需 Hugging Face 账号验证,直接加载本地或魔搭模型即可。

一、🛠️ 环境依赖

确保已安装以下库:

复制代码
bash
pip install torch modelscope pillow
注意:本文使用的是 ModelScope(魔搭) 的 AutoModel 和 AutoImageProcessor,不依赖 Hugging Face Transformers 的模型下载权限。

二、📦 代码实现:批量特征提取器

python 复制代码
# huggingface还要验证,先使用魔塔的模型

import torch
from modelscope import AutoImageProcessor, AutoModel
from transformers.image_utils import load_image
from PIL import Image
from typing import List, Union

class DINOv3FeatureExtractor:
    def __init__(self, pretrained_model_name: str):
        """
        初始化DINOv3模型和处理器。
        
        参数:
            pretrained_model_name (str): 预训练模型的路径或名称。
        """
        # 加载预处理工具和模型
        self.processor = AutoImageProcessor.from_pretrained(pretrained_model_name)
        self.model = AutoModel.from_pretrained(pretrained_model_name, device_map="auto")
        self.model.eval()  # 设置为评估模式
        
    def infer_batch_features(self, image_inputs: List[Union[str, Image.Image]]) -> torch.Tensor:
        """
        对给定的一批图像进行推理,返回提取的特征。
        
        参数:
            image_inputs (List[Union[str, Image.Image]]): 包含图像的本地路径、URL 或已加载的 PIL 图像列表。
            
        返回:
            torch.Tensor: 模型输出的 pooled 特征,形状为 [batch_size, hidden_size]。
        """
        images = []
        for image_input in image_inputs:
            if isinstance(image_input, str):
                image = load_image(image_input)
            else:
                image = image_input  # 假设已经是 PIL.Image.Image
            images.append(image)

        # 预处理所有图像并移至模型设备
        inputs = self.processor(images=images, return_tensors="pt").to(self.model.device)

        # 推理
        with torch.inference_mode():
            outputs = self.model(**inputs)

        # 返回 pooled 输出
        return outputs.pooler_output
    
# 示例用法
if __name__ == "__main__":
    model_path = "G:/code/Project_FM_Distill/RTdetrv2_FM_Distill/dinov3-vits16-pretrain-lvd1689m"
    extractor = DINOv3FeatureExtractor(model_path)
    
    urls = [
        "http://images.cocodataset.org/val2017/000000039769.jpg",
        "http://images.cocodataset.org/val2017/000000039769.jpg"
    ]
    features = extractor.infer_batch_features(urls)
    print("Pooled output shape:", features.shape)

"""

后面不多说了,主要是给一个demo作为参考。

我放了一个完整包,包含权重文件:https://download.csdn.net/download/weixin_38252409/92493650

你也可以快速在魔塔社区下载:https://www.modelscope.cn/models/facebook/dinov3-vits16-pretrain-lvd1689m/files

相关推荐
知行合一。。。4 小时前
Python--04--数据容器(总结)
开发语言·python
架构师老Y4 小时前
008、容器化部署:Docker与Python应用打包
python·容器·架构
逻辑君4 小时前
认知神经科学研究报告【20260010】
人工智能·深度学习·神经网络·机器学习
lifewange5 小时前
pytest-类中测试方法、多文件批量执行
开发语言·python·pytest
pluvium275 小时前
记对 xonsh shell 的使用, 脚本编写, 迁移及调优
linux·python·shell·xonsh
2401_827499995 小时前
python项目实战09-AI智能伴侣(ai_partner_5-6)
开发语言·python
PD我是你的真爱粉5 小时前
MCP 协议详解:从架构、工作流到 Python 技术栈落地
开发语言·python·架构
龙文浩_5 小时前
Attention Mechanism: From Theory to Code
人工智能·深度学习·神经网络·学习·自然语言处理
ZhengEnCi5 小时前
P2G-Python字符串方法完全指南-split、join、strip、replace的Python编程利器
python
微臣愚钝6 小时前
prompt
人工智能·深度学习·prompt