深度学习(中)

1.前馈全连接神经网络对鸢尾花数据集进行分类

1.1导入鸢尾花数据集

复制代码
iris =load_iris()

1.2划分训练集测试集

复制代码
x_train,x_test,y_train,y_test = train_test_split(iris.data,iris.target,test_size=0.2,random_state=23)

参数1:数据集数据

参数2:数据集标签

参数3:测试集大小

参数4:随机种子

1.3划分验证集

复制代码
x_train,X_valid,y_train,y_valid = train_test_split(x_train,y_train,test_size=0.2,random_state=12)

1.4输出验证集训练集的形状

复制代码
print(X_valid.shape)

print(X_train.shape)
运行结果:

1.5 训练模型(和上篇文章有些方法是一样的)

复制代码
keras.layers.Dropout(rate=0.2)

Dropout是一种正则化方法,用于防止过拟合;rate=0.2表示在训练时,该层会随机地将20%的输入单元置0

8.6使用fit训练模型,将训练过程转为二维数组

复制代码
h = model.fit(x_train,y_train,batch_size=10,epochs=20,validation_data=(X_valid,y_valid))

pd.DataFrame(h.history)
运行结果:

1.7 画图

运行结果:

1.8评估模型:使用函数evaluate

复制代码
model.evaluate(x_test,y_test,batch_size=1)
运行结果:

2.卷积神经网络

2.1加载显示图像

2.1.1导入加载内置图像的库

复制代码
from sklearn.datasets import load_sample_image

2.1.2将图像进行归一化

复制代码
china = load_sample_image('china.jpg')/255

flower = load_sample_image('flower.jpg')/255

2.1.3绘制图像

复制代码
plt.subplot(1,2,1)
plt.imshow(china)
plt.subplot(1,2,2)
plt.imshow(flower)

2.1.4输出维度

复制代码
print('china.jpg的维度:',china.shape)
print('flower.jpg的维度:',flower.shape)

2.1.5将两张图像组成一个数组

复制代码
imgs = np.array([china,flower])
img_shape = imgs.shape

print('数据集的维度:',img_shape)
运行结果:

2.2确定卷积层大小,滑动步长 输出特征图数目

复制代码
u = 7            #卷积层大小
s = 1            #滑动步长
p = 5            #输出特征图数目

2.3定义二维卷积层

python 复制代码
conv = keras.layers.Conv2D(filters = p,kernel_size = u,strides = s,padding = 'SAME',activation = 'relu',input_shape = img_shape)

参数1:卷积核数量

参数2:卷积核的大小

参数3:卷积的步长

参数4:卷积操作时使用的填充方式, 'SAME' 表示使用边界像素填充,保持卷积后输出的空间维度与输入相同,'VALID'不使用填充,可能会导致输出的空间维度小于输入

参数5:激活函数

参数6:输出数据的形状

2.4将二维卷积层应用于图像数组,打印卷积后的张量大小

python 复制代码
img_after_conv = conv(imgs)
print('卷积后的张量大小:',img_after_conv.shape)
运行结果:

2.5 汇聚层

2.5.1应用最大池化层到卷积后的图像数据,减少数据维度,打印处理后的图像数据的形状

定义了一个最大池化层 ,参数为:指定了池化窗口的大小
python 复制代码
pool_max = keras.layers.MaxPool2D(pool_size = 2)
将最大池化层应用到卷积后的图像数据
python 复制代码
img_after_pool_max = pool_max(img_after_conv)

print('最大汇聚后的张量大小:',img_after_pool_max.shape)
运行结果:

2.6 平均汇聚

和汇聚层操作过程一样,使用的方法不一样

keras.layers.AvgPool2D

运行结果:

2.7 全局平均汇聚

和汇聚层操作过程一样,使用的方法不一样

keras.layers.GlobalAvgPool2D

运行结果:
相关推荐
LO嘉嘉VE6 小时前
学习笔记二十一:深度学习
笔记·深度学习·学习
vvoennvv7 小时前
【Python TensorFlow】 TCN-GRU时间序列卷积门控循环神经网络时序预测算法(附代码)
python·rnn·神经网络·机器学习·gru·tensorflow·tcn
YJlio7 小时前
[编程达人挑战赛] 用 PowerShell 写了一个“电脑一键初始化脚本”:从混乱到可复制的开发环境
数据库·人工智能·电脑
玦尘、7 小时前
《统计学习方法》第4章——朴素贝叶斯法【学习笔记】
笔记·机器学习
RoboWizard7 小时前
PCIe 5.0 SSD有无独立缓存对性能影响大吗?Kingston FURY Renegade G5!
人工智能·缓存·电脑·金士顿
霍格沃兹测试开发学社-小明7 小时前
测试左移2.0:在开发周期前端筑起质量防线
前端·javascript·网络·人工智能·测试工具·easyui
懒麻蛇7 小时前
从矩阵相关到矩阵回归:曼特尔检验与 MRQAP
人工智能·线性代数·矩阵·数据挖掘·回归
xwill*8 小时前
RDT-1B: A DIFFUSION FOUNDATION MODEL FOR BIMANUAL MANIPULATION
人工智能·pytorch·python·深度学习
网安INF8 小时前
机器学习入门:深入理解线性回归
人工智能·机器学习·线性回归
陈奕昆8 小时前
n8n实战营Day2课时2:Loop+Merge节点进阶·Excel批量校验实操
人工智能·python·excel·n8n