卷积神经网络(二)CIFAR100类别分类

一.数据介绍

总共一百个类,每个类有600个图像。每类500个训练图像,100个测试图像。没填图像都带有一个"精细"标签(它所属的类)核一个粗糙标签(它所属的超类)

二.API使用

用于构建CNN模型的API

Conv2D:实现卷积,kernel_size,strides,padding,datafromat,'NHWC'核'NCHW'

MaxPool2D:池化操作

python 复制代码
import keras
import tensorflow as tf

# 构建卷积层,filters:多少个卷积核,kernel_size每个卷积核为5*5大小
# strides:步长,padding:零填充大小为same形式,activation:使用什么激活函数
keras.layers.Conv2D(filters=32,kernel_size=5,strides=1,
                    padding='same',data_format='channels_last',activation=tf.nn.relu)


# 构建池化操作
keras.layers.MaxPool2D(pool_size=2,strides=2,padding='same')

三:代码实现

1.读取数据集

python 复制代码
class CNNMnist():
    def __init__(self):
        # 读取数据
        (self.train,self.train_label),(self.test,self.test_label)=keras.datasets.cifar100.load_data()
        # 数据转换为32*32大小的3通道数据,并对数据归一化
        self.train=self.train.reshape(-1,32,32,3)/255.0
        self.test=self.train.reshape(-1,32,32,3)/255.0

2.进行模型编写

1.结构设计

两层卷积层+两层神经网络

第一层:卷积核大小5*5形式的32个,步长为1,零填充为same形式,激活函数为relu,池化为大小2*2步长为2

第二层:卷积核大小5*5形式的64个,步长为1,零填充为same形式,激活函数为relu,池化为大小2*2步长为2

经过每一层图片数据大小的变化需要确定,导入的数据中每批次若干图片数据大小为[None,32*32],如果要经过卷积计算,需要变成[None,32,32,3]

2.数据变化

第一层:

卷积前-卷积后=[None,32,32,3]-[None,32,32,32],因为外面卷积核里设置的fiter为32个,所以卷积后会生成32个特征图。激活函数过后:[None,32,32,32]-[None,32,32,32]

池化后:[None,32,32,32]-[None,16,16,32],因为外面池化设置的poll_size核strides都是2

第二层:

卷积前-卷积后=[None,16,16,32]-[None,16,16,64]。激活函数过后:[None,16,16,64]-[None,16,16,64]

池化后:[None,16,16,64]-[None,8,8,64],因为外面池化设置的poll_size核strides都是2

全连接层:

传入全连接层的数据形式为:[None,8,8,64],因为是全连接所以变化后还是[None,8,8,64],经过第一层神经网络后:[None,8,8,64]*[None,8,8,64]=[None,1024],然后到输出层的时候[None,1024]*[1024,100]=[None,100]

python 复制代码
model = keras.Sequential([
        keras.layers.Conv2D(32, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),
        keras.layers.Conv2D(64, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),
        keras.layers.Flatten(),
        keras.layers.Dense(1024, activation=tf.nn.relu),
        keras.layers.Dense(100, activation=tf.nn.softmax),
    ])

定义模型参数

训练模型

模型评估

这些在上几章说过了

完整代码

python 复制代码
from tensorflow import keras
import tensorflow as tf

class CNNMnist():
    # 建立模型
    model = keras.Sequential([
        # 建立第一层卷积层
        keras.layers.Conv2D(32, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        # 建立池化层
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),
        # 建立第二层卷积层
        keras.layers.Conv2D(64, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        # 建立第二层池化层
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),

        keras.layers.Flatten(),
        # 建立第一层神经网络
        keras.layers.Dense(1024, activation=tf.nn.relu),
        # 建立输出层
        keras.layers.Dense(100, activation=tf.nn.softmax),
    ])
    def __init__(self):
        (self.train,self.train_label),(self.test,self.test_label)=keras.datasets.cifar100.load_data()

        self.train=self.train.reshape(-1,32,32,3)/255.0
        self.test=self.train.reshape(-1,32,32,3)/255.0
    

    # 定义模型参数的函数
    def compile(self):
        CNNMnist.model.compile(optimizer=keras.optimizers.Adam(),
                               loss=keras.losses.sparse_categorical_crossentropy,
                               metrics=['accuracy'])
        return None
    # 开始训练函数
    def fit(self):
        CNNMnist.model.fit(self.train, self.train_label, epochs=1, batch_size=32)

        return None
    # 模型评分函数
    def evaluate(self):
        test_loss, test_acc = CNNMnist.model.evaluate(self.test, self.test_label)

        print(test_loss, test_acc)
        return None


if __name__ == '__main__':
    cnn = CNNMnist()

    cnn.compile()

    cnn.fit()


    print(CNNMnist.model.summary())

都看到这里了,点个赞把!!!

相关推荐
模型时代1 分钟前
Anthropic明确拒绝在Claude中加入广告功能
人工智能·microsoft
夕小瑶4 分钟前
OpenClaw、Moltbook爆火,算力如何48小时内扩到1900张卡
人工智能
一枕眠秋雨>o<6 分钟前
透视算力:cann-tools如何让AI性能调优从玄学走向科学
人工智能
那个村的李富贵20 分钟前
昇腾CANN跨行业实战:五大新领域AI落地案例深度解析
人工智能·aigc·cann
集简云-软件连接神器23 分钟前
技术实战:集简云语聚AI实现小红书私信接入AI大模型全流程解析
人工智能·小红书·ai客服
松☆23 分钟前
深入理解CANN:面向AI加速的异构计算架构
人工智能·架构
rainbow72424424 分钟前
无基础学AI的入门核心,从基础工具和理论开始学
人工智能
子榆.28 分钟前
CANN 与主流 AI 框架集成:从 PyTorch/TensorFlow 到高效推理的无缝迁移指南
人工智能·pytorch·tensorflow
七月稻草人29 分钟前
CANN生态ops-nn:AIGC的神经网络算子加速内核
人工智能·神经网络·aigc
2501_9248787330 分钟前
数据智能驱动进化:AdAgent 多触点归因与自我学习机制详解
人工智能·逻辑回归·动态规划