全连接神经网络案例——手写数字识别

文章目录

使⽤⼿写数字的MNIST数据集如上图所示,该数据集包含60,000个⽤于训练的样本和10,000个⽤于测试的样本,图像是固定⼤⼩(28x28像素),其值为0到255。

整个案例的实现流程是:

  • 数据加载
  • 数据处理
  • 模型构建
  • 模型训练
  • 模型测试
  • 模型保存

1.我们导入需要的工具包

python 复制代码
# 1.导入所需的工具包
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
# 构建模型
from tensorflow.keras.models import Sequential
# 相关的网络层
from tensorflow.keras.layers import Dense, Dropout, Activation, BatchNormalization
# 导入辅助工具包
from tensorflow.keras import utils
# 正则化
from tensorflow.keras import regularizers
# 数据集
from tensorflow.keras.datasets import mnist

2.数据加载

首先我们加载手写数字图像

python 复制代码
# 2.数据加载
# 加载数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
print(x_train.shape, y_train.shape, x_test.shape, y_test.shape)

数据展示:

3.数据处理

神经⽹络中的每个训练样本是⼀个向量,因此需要对输⼊进⾏重塑,使每个28x28的图像成为⼀个的784维向量。另外,将输⼊数据进⾏归⼀化处理,从0-255调整到0-1。

另外对于⽬标值我们也需要进⾏处理,将其转换为热编码的形式(本):

python 复制代码
# 3.数据处理
# 数据维度的调整
x_train = x_train.reshape(60000, 784)
x_test = x_test(10000, 784)
# 数据类型调整
x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
# 归一化
x_train = x_train/255
x_test = x_test/255
# 将目标值转换成热编码的形式
y_train = utils.to_categorical(y_train, 10)
y_test = utils.to_categorical(y_test, 10)

4.模型构建

在这⾥我们构建只有3层全连接的⽹络来进⾏处理:

构建模型如下所示:

python 复制代码
# 4.模型构建
# 使用序列模型进行构建
model = Sequential()
# 全连接层,2个隐藏层,一个输出层
# 第一个隐藏层,512个神经元,先BN再激活,随机失活
model.add(Dense(512, input_shape=(784,)))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(Dropout(0.2))
# 第二个隐藏层,512个神经元,先BN再激活,随机失活
model.add(Dense(512, kernel_regularizer=regularizers.l2(0.01)))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(Dropout(0.2))
# 输出层
model.add(Dense(10, activation='softmax'))
# 查看模型架构
model.summary()

5.模型编译

设置模型训练使⽤的损失函数交叉熵损失和优化⽅法adam,损失函数⽤来衡量预测值与真实值之间的差异,优化器⽤来使⽤损失函数达到最优:

python 复制代码
# 5.模型编译
# 损失函数(交叉熵损失),优化器,评价指标
model.compile(loss=tf.keras.losses.categorical_crossentropy, optimizer=tf.keras.optimizers.Adam(),
              metrics=tf.keras.metrics.Accuracy())

6.模型训练

python 复制代码
# 6.模型训练
# 使用fit,指定训练集,epochs,batch_size,val,verbose
history = model.fit(x_train, y_train, epochs=4, batch_size=128, validation_data=(x_test, y_test), verbose=1)

我们将损失绘制成曲线:

python 复制代码
# 绘制损失函数
plt.figure()
plt.plot(history.history['loss'], label='train')
plt.plot(history.history['val_loss'], label='val')
plt.legend()
plt.grid()
plt.show()

我们再来绘制一下准确率变化曲线:

python 复制代码
# 绘制准确率变化曲线
plt.figure()
plt.plot(history.history['accuracy'], label='train')
plt.plot(history.history['val_accuracy'], label='val')
plt.legend()
plt.grid()
plt.show()

其中,history会保存loss的变化和在compile中指定的评价指标的结果。

7.模型测试

python 复制代码
# 7.模型测试
model.evaluate(x_test, y_test, verbose=1)

8.模型保存

python 复制代码
# 8.模型保存
model.save("my_model.h5")

之后要是想要想在这个模型时,只需要使用model = tf.keras.models.load_model('my_model.h5')即可。

相关推荐
Che_Che_18 分钟前
Cross-Inlining Binary Function Similarity Detection
人工智能·网络安全·gnn·二进制相似度检测
哈市雪花19 分钟前
图像处理 之 凸包和最小外围轮廓生成
图像处理·人工智能·图形学·最小外围轮廓·最小外包
LittroInno20 分钟前
无人机侦察打击方案(3)
人工智能·无人机
如若12321 分钟前
实现了图像处理、绘制三维坐标系以及图像合成的操作
图像处理·人工智能
谢眠34 分钟前
机器学习day6-线性代数2-梯度下降
人工智能·机器学习
sp_fyf_20241 小时前
【大语言模型】ACL2024论文-19 SportsMetrics: 融合文本和数值数据以理解大型语言模型中的信息融合
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理
CoderIsArt1 小时前
基于 BP 神经网络整定的 PID 控制
人工智能·深度学习·神经网络
开源社2 小时前
一场开源视角的AI会议即将在南京举办
人工智能·开源
FreeIPCC2 小时前
谈一下开源生态对 AI人工智能大模型的促进作用
大数据·人工智能·机器人·开源
机器之心2 小时前
全球十亿级轨迹点驱动,首个轨迹基础大模型来了
人工智能·后端