目录
[六、 训练模型](#六、 训练模型)
一、前言
- 🍨 本文为 🔗365天深度学习训练营中的学习记录博客
- 🍖 原作者: K同学啊
二、前期准备
1、设置GPU
python
import tensorflow as tf
gpus=tf.config.list_physical_devices("GPU")
if gpus:
tf.config.experimental.set_memory_growth(gpus[0],True)
tf.config.set_visible_devices([gpus[0]],"GPU")
gpus
2、导入数据
python
import pathlib
data_dir="D:\THE MNIST DATABASE\T7"
data_dir=pathlib.Path(data_dir)
3、查看数据图片
python
image_count=len(list(data_dir.glob('*/*.png')))
print("图片总数为:",image_count)
运行结果:
三、数据预处理
1、加载数据
使用image_dataset_from_directory
方法将磁盘中的数据加载到tf.data.Dataset
中。
python
train_ds=tf.keras.preprocessing.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="training",
seed=123,
image_size=(224,224),
batch_size=32
)
运行结果如下:
加载验证集:
python
val_ds=tf.keras.preprocessing.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="validation",
seed=123,
image_size=(224,224),
batch_size=32
)
运行结果如下:
通过class_names输出数据集的标签。标签将按字母顺序对应于目录名称。
python
class_names=train_ds.class_names
print(class_names)
运行结果如下:
2、可视化数据
python
import matplotlib.pyplot as plt
plt.figure(figsize=(10,4))
for images,labels in train_ds.take(1):
for i in range(10):
ax=plt.subplot(2,5,i+1)
plt.imshow(images[i].numpy().astype("uint8"))
plt.title(class_names[labels[i]])
plt.axis("off")
运行结果如下:
查看图像格式:
python
for image_batch,labels_batch in train_ds:
print(image_batch.shape)
print(labels_batch.shape)
break
运行结果如下:
3、配置数据集
- shuffle() :打乱数据;
- prefetch() :预取数据,加速运行;
- cache() :将数据集缓存到内存当中,加速运行;
对数据集进行预处理,对于验证集只进行了缓存和预取操作,没有进行打乱操作。
python
AUTOTUNE=tf.data.AUTOTUNE
train_ds=train_ds.cache().shuffle(1000).prefetch(buffer_size=AUTOTUNE)
val_ds=val_ds.cache().prefetch(buffer_size=AUTOTUNE)
对图像数据集进行归一化。 将输入数据除以255,将像素值缩放到0到1之间。然后,使用map
函数将这个归一化层应用到训练数据集train_ds
和验证数据集val_ds
的每个样本上。这样,所有的图像都会被归一化,以便在神经网络中更好地处理。
python
from tensorflow.keras import layers
normalization_layer=layers.experimental.preprocessing.Rescaling(1./255)
train_ds=train_ds.map(lambda x,y:(normalization_layer(x),y))
val_ds=val_ds.map(lambda x,y:(normalization_layer(x),y))
从验证数据集中获取一个批次的图像和标签,然后将第一个图像存储在变量first_image中。接下来,使用numpy库的min和max函数分别计算first_image中的最小值和最大值,并将它们打印出来。这样可以帮助我们了解图像数据的归一化情况,例如是否所有像素值都在0到1之间。
python
import numpy as np
image_batch,labels_batch=next(iter(val_ds))
first_image=image_batch[0]
#查看归一化后的数据
print(np.min(first_image),np.max(first_image))
运行结果如下:
四、构建VGG-16网络
1、VGG优缺点分析
(1)优点:结构简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2);
(2)缺点
- 训练时间过长,调参难度大;
- 需要的存储容量大,不利于部署。例如存储VGG-16权重值文件的大小为500多MB,不利于安装到嵌入式系统中;
2、自建模型
python
from tensorflow.keras import layers,models,Input
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Conv2D,MaxPooling2D,Dense,Flatten,Dropout
def vgg16(nb_classes,input_shape):
input_tensor=Input(shape=input_shape)
#1st block
x=Conv2D(64,(3,3),activation='relu',padding='same')(input_tensor)
x=Conv2D(64,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#2nd block
x=Conv2D(128,(3,3),activation='relu',padding='same')(x)
x=Conv2D(128,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#3rd block
x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#4th block
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#5th block
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#full connection
x=Flatten()(x)
x=Dense(4096,activation='relu')(x)
x=Dense(4096,activation='relu')(x)
output_tensor=Dense(nb_classes,activation='softmax',name='predictions')(x)
model=Model(input_tensor,output_tensor)
return model
model=vgg16(len(class_names),(224,224,3))
model.summary()
运行结果如下:
3、网络结构图
结构说明:
- 13个卷积层(Convolutional Layer),分别用
blockX_convX
表示; - 3个全连接层(Fully connected Layer),分别用
fcX
与predictions
表示; - 5个池化层(Pool layer),分别用
blockX_pool
表示;
VGG-16
包含了16个隐藏层(13个卷积层和3个全连接层),故称为VGG-16;
五、编译
在准备对模型进行训练之前,还需要再对其进行一些设置。以下内容是在模型的编译步骤中添加的:
- 损失函数(loss):用于衡量模型在训练期间的准确率;
- 优化器(optimizer):决定模型如何根据其看到的数据和自身的损失函数进行更新;
- 指标(metrics):用于监控训练和测试步骤。以下示例使用了准确率,即被正确分类的图像的比率;
python
#设置初始学习率
initial_learning_rate=1e-4
lr_schedule=tf.keras.optimizers.schedules.ExponentialDecay(
initial_learning_rate,
decay_steps=30,
decay_rate=0.92,
staircase=True
)
#设置优化器
opt=tf.keras.optimizers.Adam(learning_rate=initial_learning_rate)
model.compile(optimizer=opt,
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
metrics=['accuracy'])
六、 训练模型
python
epochs=20
history=model.fit(
train_ds,
validation_data=val_ds,
epochs=epochs
)
运行结果如图:
七、可视化结果
python
acc = history.history['accuracy']
val_acc = history.history['val_accuracy']
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs_range = range(epochs)
plt.figure(figsize=(12, 4))
plt.subplot(1, 2, 1)
plt.plot(epochs_range, acc, label='Training Accuracy')
plt.plot(epochs_range, val_acc, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')
plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, label='Training Loss')
plt.plot(epochs_range, val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()
运行结果如图:
👏觉得文章对自己有用的宝子可以收藏文章并给小编点个赞!
👏想了解更多统计学、数据分析、数据开发、机器学习算法、深度学习等有关知识的宝子们,可以关注小编,希望以后我们一起成长!