卷积神经网络(二)CIFAR100类别分类

一.数据介绍

总共一百个类,每个类有600个图像。每类500个训练图像,100个测试图像。没填图像都带有一个"精细"标签(它所属的类)核一个粗糙标签(它所属的超类)

二.API使用

用于构建CNN模型的API

Conv2D:实现卷积,kernel_size,strides,padding,datafromat,'NHWC'核'NCHW'

MaxPool2D:池化操作

python 复制代码
import keras
import tensorflow as tf

# 构建卷积层,filters:多少个卷积核,kernel_size每个卷积核为5*5大小
# strides:步长,padding:零填充大小为same形式,activation:使用什么激活函数
keras.layers.Conv2D(filters=32,kernel_size=5,strides=1,
                    padding='same',data_format='channels_last',activation=tf.nn.relu)


# 构建池化操作
keras.layers.MaxPool2D(pool_size=2,strides=2,padding='same')

三:代码实现

1.读取数据集

python 复制代码
class CNNMnist():
    def __init__(self):
        # 读取数据
        (self.train,self.train_label),(self.test,self.test_label)=keras.datasets.cifar100.load_data()
        # 数据转换为32*32大小的3通道数据,并对数据归一化
        self.train=self.train.reshape(-1,32,32,3)/255.0
        self.test=self.train.reshape(-1,32,32,3)/255.0

2.进行模型编写

1.结构设计

两层卷积层+两层神经网络

第一层:卷积核大小5*5形式的32个,步长为1,零填充为same形式,激活函数为relu,池化为大小2*2步长为2

第二层:卷积核大小5*5形式的64个,步长为1,零填充为same形式,激活函数为relu,池化为大小2*2步长为2

经过每一层图片数据大小的变化需要确定,导入的数据中每批次若干图片数据大小为[None,32*32],如果要经过卷积计算,需要变成[None,32,32,3]

2.数据变化

第一层:

卷积前-卷积后=[None,32,32,3]-[None,32,32,32],因为外面卷积核里设置的fiter为32个,所以卷积后会生成32个特征图。激活函数过后:[None,32,32,32]-[None,32,32,32]

池化后:[None,32,32,32]-[None,16,16,32],因为外面池化设置的poll_size核strides都是2

第二层:

卷积前-卷积后=[None,16,16,32]-[None,16,16,64]。激活函数过后:[None,16,16,64]-[None,16,16,64]

池化后:[None,16,16,64]-[None,8,8,64],因为外面池化设置的poll_size核strides都是2

全连接层:

传入全连接层的数据形式为:[None,8,8,64],因为是全连接所以变化后还是[None,8,8,64],经过第一层神经网络后:[None,8,8,64]*[None,8,8,64]=[None,1024],然后到输出层的时候[None,1024]*[1024,100]=[None,100]

python 复制代码
model = keras.Sequential([
        keras.layers.Conv2D(32, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),
        keras.layers.Conv2D(64, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),
        keras.layers.Flatten(),
        keras.layers.Dense(1024, activation=tf.nn.relu),
        keras.layers.Dense(100, activation=tf.nn.softmax),
    ])

定义模型参数

训练模型

模型评估

这些在上几章说过了

完整代码

python 复制代码
from tensorflow import keras
import tensorflow as tf

class CNNMnist():
    # 建立模型
    model = keras.Sequential([
        # 建立第一层卷积层
        keras.layers.Conv2D(32, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        # 建立池化层
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),
        # 建立第二层卷积层
        keras.layers.Conv2D(64, kernel_size=5, strides=1,
                            padding='same', data_format='channels_last', activation=tf.nn.relu),
        # 建立第二层池化层
        keras.layers.MaxPool2D(pool_size=2, strides=2, padding='same'),

        keras.layers.Flatten(),
        # 建立第一层神经网络
        keras.layers.Dense(1024, activation=tf.nn.relu),
        # 建立输出层
        keras.layers.Dense(100, activation=tf.nn.softmax),
    ])
    def __init__(self):
        (self.train,self.train_label),(self.test,self.test_label)=keras.datasets.cifar100.load_data()

        self.train=self.train.reshape(-1,32,32,3)/255.0
        self.test=self.train.reshape(-1,32,32,3)/255.0
    

    # 定义模型参数的函数
    def compile(self):
        CNNMnist.model.compile(optimizer=keras.optimizers.Adam(),
                               loss=keras.losses.sparse_categorical_crossentropy,
                               metrics=['accuracy'])
        return None
    # 开始训练函数
    def fit(self):
        CNNMnist.model.fit(self.train, self.train_label, epochs=1, batch_size=32)

        return None
    # 模型评分函数
    def evaluate(self):
        test_loss, test_acc = CNNMnist.model.evaluate(self.test, self.test_label)

        print(test_loss, test_acc)
        return None


if __name__ == '__main__':
    cnn = CNNMnist()

    cnn.compile()

    cnn.fit()


    print(CNNMnist.model.summary())

都看到这里了,点个赞把!!!

相关推荐
Baihai_IDP1 分钟前
探讨超长上下文推理的潜力
人工智能·面试·llm
文火冰糖的硅基工坊4 分钟前
[人工智能-大模型-116]:模型层 - 用通俗易懂的语言,阐述离散卷积的神奇功能和背后的物理意义
人工智能·深度学习·cnn
rengang665 分钟前
13-卷积神经网络(CNN):探讨CNN在图像处理中的应用和优势
图像处理·人工智能·深度学习·神经网络·cnn
材料科学研究8 分钟前
先到先得!深度学习有限元仿真!
深度学习·cnn·abaqus·仿真·有限元
DO_Community9 分钟前
裸金属 vs. 虚拟化 GPU 服务器:AI 训练与推理应该怎么选
运维·服务器·人工智能·llm·大语言模型
科技峰行者13 分钟前
华为发布Atlas 900 DeepGreen AI服务器:单机柜100PF算力重构AI训练基础设施
服务器·人工智能·华为·aigc·gpu算力
weixin_3077791324 分钟前
应对不规则负载的异步ML模型服务AWS架构设计
人工智能·深度学习·机器学习·云计算·aws
Xander W35 分钟前
基于K8s集群的PyTorch DDP 框架分布式训练测试(开发机版)
人工智能·pytorch·分布式·python·深度学习·kubernetes
Wah-Aug39 分钟前
基于 PyTorch 的 UNet 与 NestedUNet 图像分割
人工智能·pytorch·计算机视觉
云和数据.ChenGuang39 分钟前
感知机之争,杀死神经网络的“人工智能之父”
人工智能·深度学习·神经网络