四. 以Annoy算法建树的方式聚类清洗图像数据集,一次建树,无限次聚类搜索,提升聚类搜索效率。(附完整代码)

文章内容结构:

一. 先介绍什么是Annoy算法。
二. 用Annoy算法建树的完整代码。
三. 用Annoy建树后的树特征匹配聚类归类图像。

一. 先介绍什么是Annoy算法

下面的文章链接将Annoy算法讲解的很详细,这里就不再做过多原理的分析了,想详细了解的可以看看这篇文章内容。

https://zhuanlan.zhihu.com/p/148819536

总的来说:

(1)通过多次递归迭代,建立一个二叉树,以二叉树的方式,提升数据聚类和搜索速度,但会损失一些精度。

(2)建树过程相对比较耗时,但建树只需要一次,部署到线上或者其他设备上,能无数次聚类搜索。(类似于人脸识别的人脸底库)

(注: 这里全部是个人经验,能提升样本标注和清洗效率,不是标准的数据处理方式,希望对您有帮助。)


二. 用Annoy算法建树的完整代码

对底库聚类建树,生成Annoy树特征文件。

下面参数说明:

python 复制代码
最佳聚类类别数量, 是根据《三.以聚类的方式清洗图像数据集,找到最佳聚类类别数 (图像特征提取+Kmeans聚类)》获取得到
BEST_NUM_CLUSTERS = 2501


图像特征提取后的向量维度,是pt或者onnx模型输出的类别数
FEATURE_DIM = 190


推断图像尺寸,是根据训练pt模型时,输入的图像尺寸大小
CLASSIFY_SIZE = 224  

以下是正式的代码:

python 复制代码
import os
import cv2
import numpy as np
from PIL import Image
import onnxruntime as ort
import shutil
from sklearn.cluster import KMeans
from sklearn.preprocessing import Normalizer
from  tqdm import tqdm
import math
import matplotlib.pyplot as plt

# 图像预处理函数
def preprocess_image(image_path):

    roi_frame= cv2.imread(image_path)
    width = roi_frame.shape[1]
    height = roi_frame.shape[0]

    if (width != CLASSIFY_SIZE) or (height != CLASSIFY_SIZE) :

                if width > height:
                    # 将图像逆时针旋转90度
                    roi_frame = cv2.rotate(roi_frame, cv2.ROTATE_90_COUNTERCLOCKWISE)

                new_height = CLASSIFY_SIZE
                new_width = int(roi_frame.shape[1] * (CLASSIFY_SIZE / roi_frame.shape[0]))

                roi_frame = cv2.resize(roi_frame, (new_width, new_height))

                # 计算上下左右漂移量
                y_offset = (CLASSIFY_SIZE - roi_frame.shape[0]) // 2
                x_offset = (CLASSIFY_SIZE - roi_frame.shape[1]) // 2

                gray_image = np.full((CLASSIFY_SIZE, CLASSIFY_SIZE, 3), 128, dtype=np.uint8)
                # 将调整大小后的目标图像放置到灰度图上
                gray_image[y_offset:y_offset + roi_frame.shape[0], x_offset:x_offset + roi_frame.shape[1]] = roi_frame

                # # 显示结果
                # cv2.imshow("gray_image", gray_image)
                # cv2.waitKey(1)

                # 将图像转为 rgb
                gray_image =  cv2.cvtColor(gray_image, cv2.COLOR_BGR2RGB)

    else:
        gray_image = cv2.cvtColor(roi_frame, cv2.COLOR_BGR2RGB)


    img_np = np.array(gray_image).transpose(2, 0, 1).astype(np.float32)

    # 假设模型需要[0,1]归一化
    img_np = img_np / 255.0

    # 均值 方差
    mean = np.array([0.485, 0.456, 0.406],dtype=np.float32).reshape(3, 1, 1)
    std = np.array([0.229, 0.224, 0.225],dtype=np.float32).reshape(3, 1, 1)

    img_np= (img_np - mean)/std

    return np.expand_dims(img_np, axis=0)



# 卸载 onnxruntime
# 安装  pip install onnxruntime-gpu
def get_onnx_providers():

    # 检查是否安装了GPU版本的ONNX Runtime
    all_provider = ort.get_available_providers()

    if "CUDAExecutionProvider" in all_provider:
        providers = [
            ("CUDAExecutionProvider", {
                "device_id": 0,
                "arena_extend_strategy": "kNextPowerOfTwo",
                "gpu_mem_limit": 6 * 1024 * 1024 * 1024,  # 限制GPU内存使用为2GB
                "cudnn_conv_algo_search": "EXHAUSTIVE",
                "do_copy_in_default_stream": True,
            }),
            "CPUExecutionProvider"
        ]

        print("检测到NVIDIA GPU,使用CUDA加速")
        return providers
    else:
        print("未检测到NVIDIA GPU,使用CPU")
        return ["CPUExecutionProvider"]



if __name__ =="__main__":

    root_path =  "/home/xxx/Download"
    # ONNX模型路径
    MODEL_PATH = os.path.join(root_path, "08以图搜图_找相似度/98_weights/classify_modified_model_224.onnx")
    # 图像文件夹路径
    IMAGE_DIR = os.path.join(root_path, "08以图搜图_找相似度/99_test_datasets/8_bcd已验收/8")
    # 分类结果输出路径
    OUTPUT_DIR = os.path.join(root_path, "08以图搜图_找相似度/99_test_datasets/8_bcd已验收/8_kmeans_besk_k_classify")
    # 保存ann建树文件路径
    ANNOY_PATH = "08以图搜图_找相似度/01kmeans和DBscan/kmeans/annoy_cls.ann"
    # 最佳聚类类别数量(用kmeans和inner找到的)
    BEST_NUM_CLUSTERS = 2501
    # 图像特征提取后的向量维度
    FEATURE_DIM = 190  # 根据自己的模型输出维度修改
    # 推断图像尺寸
    CLASSIFY_SIZE = 224
    # 手动划分分类数量
    # NUM_CLUSTERS = 3000



    # 创建输出文件夹
    os.makedirs(OUTPUT_DIR, exist_ok=True)



    print("ONNX Runtime版本:", ort.__version__)
    print("可用执行器:", ort.get_available_providers())

    #   可用执行器: ['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'AzureExecutionProvider', 'CPUExecutionProvider']

    # 加载ONNX模型(动态获取输入/输出名称)
    ort_session = ort.InferenceSession(
        MODEL_PATH,
        providers=get_onnx_providers()
    )


    # 确保输出名称正确
    input_name = ort_session.get_inputs()[0].name

    output_name = ort_session.get_outputs()[0].name

    from annoy import AnnoyIndex
    t = AnnoyIndex(FEATURE_DIM, metric="angular")  # FEATURE_DIM是图像特征提取后的向量维度

    # 提取特征向量
    features = []
    image_paths = []

    print("====开始对所有图像推理, 提取特征====")
    for index, filename in tqdm(enumerate(os.listdir(IMAGE_DIR))):
        if filename.lower().endswith((".png", ".jpg", ".jpeg")):
            path = os.path.join(IMAGE_DIR, filename)
            try:
                # 前处理
                input_tensor = preprocess_image(path)
                # 推断
                feature = ort_session.run([output_name], {input_name: input_tensor})[0]
                # 确保特征展平为1D,  190维度
                features.append(feature.reshape(-1))
                image_paths.append(path)

                # 增加到Annoy树
                t.add_item(index, feature.reshape(-1))
               
            except Exception as e:
                print(f"Error processing {filename}: {str(e)}")

    t.build(BEST_NUM_CLUSTERS)    # 根据kmeans聚类找到最佳的聚类类别数量
    t.save(ANNOY_PATH)
    print("+++++提取特征结束+++++")
    print("+++++Annoy建树结束+++++++++")

生成建树annoy_cls.ann文件。

三. 用Annoy建树后的树特征匹配聚类归类图像

使用流程:

(1)加载ann建树文件

(2)提取单张A图像特征

(3)单张A图像特征与ann建树文件的特征进行比对,找到ann建树文件里面的与A图像特征相似的TOP_K的底库图像,拷贝走或者移动走。

python 复制代码
import os
import cv2
import numpy as np
from PIL import Image
import onnxruntime as ort
import shutil
from sklearn.cluster import KMeans
from sklearn.preprocessing import Normalizer
from  tqdm import tqdm
import math
import matplotlib.pyplot as plt


# 图像预处理函数
def preprocess_image(image_path):

    roi_frame= cv2.imread(image_path)
    width = roi_frame.shape[1]
    height = roi_frame.shape[0]

    if (width != CLASSIFY_SIZE) or (height != CLASSIFY_SIZE) :

                if width > height:
                    # 将图像逆时针旋转90度
                    roi_frame = cv2.rotate(roi_frame, cv2.ROTATE_90_COUNTERCLOCKWISE)

                new_height = CLASSIFY_SIZE
                new_width = int(roi_frame.shape[1] * (CLASSIFY_SIZE / roi_frame.shape[0]))

                roi_frame = cv2.resize(roi_frame, (new_width, new_height))

                # 计算上下左右漂移量
                y_offset = (CLASSIFY_SIZE - roi_frame.shape[0]) // 2
                x_offset = (CLASSIFY_SIZE - roi_frame.shape[1]) // 2

                gray_image = np.full((CLASSIFY_SIZE, CLASSIFY_SIZE, 3), 128, dtype=np.uint8)
                # 将调整大小后的目标图像放置到灰度图上
                gray_image[y_offset:y_offset + roi_frame.shape[0], x_offset:x_offset + roi_frame.shape[1]] = roi_frame

                # # 显示结果
                # cv2.imshow("gray_image", gray_image)
                # cv2.waitKey(1)

                # 将图像转为 rgb
                gray_image =  cv2.cvtColor(gray_image, cv2.COLOR_BGR2RGB)

    else:
        gray_image = cv2.cvtColor(roi_frame, cv2.COLOR_BGR2RGB)


    img_np = np.array(gray_image).transpose(2, 0, 1).astype(np.float32)

    # 假设模型需要[0,1]归一化
    img_np = img_np / 255.0

    # 均值 方差
    mean = np.array([0.485, 0.456, 0.406],dtype=np.float32).reshape(3, 1, 1)
    std = np.array([0.229, 0.224, 0.225],dtype=np.float32).reshape(3, 1, 1)

    img_np= (img_np - mean)/std

    return np.expand_dims(img_np, axis=0)





# todo
# 卸载 onnxruntime
# 安装  pip install onnxruntime-gpu
def get_onnx_providers():

    # 检查是否安装了GPU版本的ONNX Runtime
    all_provider = ort.get_available_providers()

    if "CUDAExecutionProvider" in all_provider:
        providers = [
            ("CUDAExecutionProvider", {
                "device_id": 0,
                "arena_extend_strategy": "kNextPowerOfTwo",
                "gpu_mem_limit": 6 * 1024 * 1024 * 1024,  # 限制GPU内存使用为2GB
                "cudnn_conv_algo_search": "EXHAUSTIVE",
                "do_copy_in_default_stream": True,
            }),
            "CPUExecutionProvider"
        ]

        print("检测到NVIDIA GPU,使用CUDA加速")
        return providers
    else:
        print("未检测到NVIDIA GPU,使用CPU")
        return ["CPUExecutionProvider"]



if __name__ =="__main__":

    root_path =  "/home/xxx/Download"
    # ONNX模型路径
    MODEL_PATH = os.path.join(root_path, "08以图搜图_找相似度/98_weights/classify_modified_model_224.onnx")
    # 图像文件夹路径
    IMAGE_DIR = os.path.join(root_path, "08以图搜图_找相似度/99_test_datasets/8_bcd已验收/8")
    # 分类结果输出路径
    OUTPUT_DIR = os.path.join(root_path, "08以图搜图_找相似度/99_test_datasets/8_bcd已验收/8_kmeans_besk_k_classify")
    # 保存annoy建树路径
    ANNOY_PATH = os.path.join(root_path, "08以图搜图_找相似度/01kmeans和DBscan/kmeans/annoy_cls.ann")
    # 最佳聚类类别数量
    BEST_NUM_CLUSTERS = 2501
    # 图像特征提取后的向量维度
    FEATURE_DIM = 190
    # 推断图像尺寸
    CLASSIFY_SIZE = 224
    # 取top10
    TOP_K = 10
    # 手动划分分类数量
    # NUM_CLUSTERS = 3000



    # 创建输出文件夹
    os.makedirs(OUTPUT_DIR, exist_ok=True)



    print("ONNX Runtime版本:", ort.__version__)
    print("可用执行器:", ort.get_available_providers())

    #   可用执行器: ['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'AzureExecutionProvider', 'CPUExecutionProvider']

    # 加载ONNX模型(动态获取输入/输出名称)
    ort_session = ort.InferenceSession(
        MODEL_PATH,
        providers=get_onnx_providers()
    )


    # 确保输出名称正确
    input_name = ort_session.get_inputs()[0].name

    output_name = ort_session.get_outputs()[0].name

    from annoy import AnnoyIndex
    Annoy_ = AnnoyIndex(FEATURE_DIM, metric="angular")  # FEATURE_DIM是图像特征提取后的向量维度
    Annoy_.load(ANNOY_PATH) 

    # 提取特征向量
    features = []
    image_paths = []

    # 获取所有图像路径
    for _, filename in tqdm(enumerate(os.listdir(IMAGE_DIR))):
        if filename.lower().endswith((".png", ".jpg", ".jpeg")):
            path = os.path.join(IMAGE_DIR, filename)
            image_paths.append(path)


    print("====开始对所有图像推理, 提取特征, 根据创建的树进行聚类====")
    for _, filename in tqdm(enumerate(os.listdir(IMAGE_DIR))):
        if filename.lower().endswith((".png", ".jpg", ".jpeg")):
            path = os.path.join(IMAGE_DIR, filename)
            try:
                # 前处理
                input_tensor = preprocess_image(path)
                # 推断
                feature = ort_session.run([output_name], {input_name: input_tensor})[0]
                # 确保特征展平为1D,  190维度
                features.append(feature.reshape(-1))
                # image_paths.append(path)
                # 取top10的相似图像
                similar_img_indices, similar_img_distances=Annoy_.get_nns_by_vector(feature.reshape(-1), TOP_K, include_distances=True)
                print("similar_img_index:", similar_img_indices)
                print("similar_img_distance:", similar_img_distances)

                shutil.copy(path, os.path.join(OUTPUT_DIR,"11"))
                #  移动相似图像到输出目录
                for idx in similar_img_indices:
                    similar_image_path = image_paths[idx]
                    # shutil.move(similar_image_path, OUTPUT_DIR)
                    shutil.copy(similar_image_path, OUTPUT_DIR)

               
            except Exception as e:
                print(f"Error processing {filename}: {str(e)}")

    print("+++++提取特征结束+++++")
    print("+++++根据Annoy数特征聚类归类图像结束+++++++++")
相关推荐
铅笔侠_小龙虾7 小时前
深度学习理论推导--梯度下降法
人工智能·深度学习
程序员东岸8 小时前
《数据结构——排序(中)》选择与交换的艺术:从直接选择到堆排序的性能跃迁
数据结构·笔记·算法·leetcode·排序算法
程序员-King.8 小时前
day104—对向双指针—接雨水(LeetCode-42)
算法·贪心算法
&&Citrus8 小时前
【杂谈】SNNU公共计算平台:深度学习服务器配置与远程开发指北
服务器·人工智能·vscode·深度学习·snnu
STLearner8 小时前
AI论文速读 | U-Cast:学习高维时间序列预测的层次结构
大数据·论文阅读·人工智能·深度学习·学习·机器学习·数据挖掘
神仙别闹8 小时前
基于C++实现(控制台)应用递推法完成经典型算法的应用
开发语言·c++·算法
Ayanami_Reii8 小时前
进阶数据结构应用-一个简单的整数问题2(线段树解法)
数据结构·算法·线段树·延迟标记
listhi5209 小时前
基于改进SET的时频分析MATLAB实现
开发语言·算法·matlab
黑客思维者9 小时前
LLM底层原理学习笔记:Adam优化器为何能征服巨型模型成为深度学习的“速度与稳定之王”
笔记·深度学习·学习·llm·adam优化器