猫狗分类识别模型建立②模型建立

一、导入依赖库

python 复制代码
pip install opencv-python  
pip install numpy  
pip install tensorflow
pip install keras

二、模型建立

python 复制代码
'''
pip install opencv-python  
pip install numpy  
pip install tensorflow
pip install keras
'''
import os
import xml.etree.ElementTree as ET

import cv2
import numpy as np
from keras.layers import Input
from keras.models import Model
from tensorflow import keras
from tensorflow.keras import layers
from tensorflow.keras.layers import Conv2D, Dense, Flatten, MaxPooling2D
from tensorflow.keras.models import Sequential
from tensorflow.keras.utils import to_categorical

# 设置文件夹路径
images_dir = "imgs/"
annotations_dir = "imgs/"
num_classes = 2  # 设置类别总数
input_shape = (128, 128, 3)
# 模型名称
model_name = "dog_cat.keras"
# 用于存储图像数据和标签的列表
images = []
labels = []

"""
1 dog 狗
2 cat 猫
"""
# 假设我们有一个从标签文本到标签索引的映射字典
label_to_index = {
    "dog": 0,
    "cat": 1,
    # ... 添加其他类别
}

# 遍历文件夹加载数据
for filename in os.listdir(images_dir):
    if filename.endswith(".png"):
        image_path = os.path.join(images_dir, filename)
        annotation_path = os.path.join(annotations_dir, filename[:-4] + ".xml")

        # 读取图像
        image = cv2.imread(image_path)
        image = cv2.resize(image, (128, 128))  # 调整图像大小
        images.append(image)

        # 解析XML标注文件获取标签
        tree = ET.parse(annotation_path)
        root = tree.getroot()
        object_element = root.find("object")
        if object_element is not None:
            label_text = object_element.find("name").text
            label_index = label_to_index.get(label_text)
            if label_index is not None:
                labels.append(label_index)
            else:
                print(f"Warning: Unknown label '{label_text}', skipping.")

# 转换为NumPy数组并进行归一化
images = np.array(images) / 255.0
labels = np.array(labels)

# 确保所有的标签都是有效的整数
if labels.dtype != int:
    raise ValueError("Labels must contain only integers.")

labels = to_categorical(labels, num_classes=num_classes)  # 假设num_classes是类别的总数


# 使用Functional API定义模型
# 创建一个输入层,shape参数指定了输入数据的形状,input_shape是一个之前定义的变量,表示输入数据的维度。
inputs = Input(shape=input_shape)
# 下面的每一行都是通过一个层对数据进行处理,并将处理后的结果传递给下一个层。
# 对输入数据进行卷积操作,使用32个3x3的卷积核,并使用ReLU激活函数。结果赋值给变量x。
x = Conv2D(32, (3, 3), activation="relu")(inputs)
# 对x进行最大池化操作,池化窗口大小为2x2。这有助于减少数据的空间尺寸,从而减少计算量并提取更重要的特征。
x = MaxPooling2D(pool_size=(2, 2))(x)
# 再次进行卷积操作,这次使用64个3x3的卷积核,并继续使用ReLU激活函数。
x = Conv2D(128, (3, 3), activation="relu")(x)
# 再次进行最大池化操作,进一步减少数据的空间尺寸。
x = MaxPooling2D(pool_size=(2, 2))(x)
x = Flatten()(x)  # 将多维的数据展平为一维,以便后续可以连接到全连接层(或称为密集层)。
# 创建一个全连接层,包含64个神经元,并使用ReLU激活函数。这一层可以进一步提取和组合特征。
x = Dense(128, activation="relu")(x)
# 创建一个输出层,神经元的数量与类别的数量(num_classes)相等。使用softmax激活函数,将输出转换为概率分布。
outputs = Dense(num_classes, activation="softmax")(x)
# 使用输入和输出来创建模型实例
model = Model(inputs=inputs, outputs=outputs)  # 通过指定输入和输出来定义模型的结构。
# 编译模型,指定优化器、损失函数和评估指标
# 使用Adam优化器、分类交叉熵损失函数,并监控准确性指标。
model.compile(optimizer="adam", loss="categorical_crossentropy", metrics=["accuracy"])

# 使用图像数据和标签训练模型
# 使用fit方法训练模型,指定训练数据、训练轮次(epochs)和批处理大小(batch_size)。
model.fit(images, labels, epochs=55, batch_size=512)

# 保存训练好的模型到文件
# 将训练好的模型保存为HDF5文件,以便以后加载和使用。
model.save(model_name)
# keras.saving.save_model(model, "cnn_model.keras")
# model.save("cnn_model.h5")

三、文件结构及构建的模型

①文件结构

②建立后的模型

四、模型可视化

可视化工具与兼容的python版本下载。

相关推荐
AndrewHZ16 分钟前
【3D重建技术】如何基于遥感图像和DEM等数据进行城市级高精度三维重建?
图像处理·人工智能·深度学习·3d·dem·遥感图像·3d重建
飞哥数智坊22 分钟前
Coze实战第18讲:Coze+计划任务,我终于实现了企微资讯简报的定时推送
人工智能·coze·trae
Code_流苏1 小时前
AI热点周报(8.10~8.16):AI界“冰火两重天“,GPT-5陷入热议,DeepSeek R2模型训练受阻?
人工智能·gpt·gpt5·deepseek r2·ai热点·本周周报
赴3351 小时前
矿物分类案列 (一)六种方法对数据的填充
人工智能·python·机器学习·分类·数据挖掘·sklearn·矿物分类
大模型真好玩1 小时前
一文深度解析OpenAI近期发布系列大模型:意欲一统大模型江湖?
人工智能·python·mcp
双翌视觉1 小时前
工业视觉检测中的常见的四种打光方式
人工智能·计算机视觉·视觉检测
念念01071 小时前
基于MATLAB多智能体强化学习的出租车资源配置优化系统设计与实现
大数据·人工智能·matlab
nonono2 小时前
深度学习——常见的神经网络
人工智能·深度学习·神经网络
AKAMAI2 小时前
AI需要防火墙,云计算需要重新构想
人工智能·云原生·云计算
钢铁男儿3 小时前
如何构建一个神经网络?从零开始搭建你的第一个深度学习模型
人工智能·深度学习·神经网络