深度学习(中)

1.前馈全连接神经网络对鸢尾花数据集进行分类

1.1导入鸢尾花数据集

复制代码
iris =load_iris()

1.2划分训练集测试集

复制代码
x_train,x_test,y_train,y_test = train_test_split(iris.data,iris.target,test_size=0.2,random_state=23)

参数1:数据集数据

参数2:数据集标签

参数3:测试集大小

参数4:随机种子

1.3划分验证集

复制代码
x_train,X_valid,y_train,y_valid = train_test_split(x_train,y_train,test_size=0.2,random_state=12)

1.4输出验证集训练集的形状

复制代码
print(X_valid.shape)

print(X_train.shape)
运行结果:

1.5 训练模型(和上篇文章有些方法是一样的)

复制代码
keras.layers.Dropout(rate=0.2)

Dropout是一种正则化方法,用于防止过拟合;rate=0.2表示在训练时,该层会随机地将20%的输入单元置0

8.6使用fit训练模型,将训练过程转为二维数组

复制代码
h = model.fit(x_train,y_train,batch_size=10,epochs=20,validation_data=(X_valid,y_valid))

pd.DataFrame(h.history)
运行结果:

1.7 画图

运行结果:

1.8评估模型:使用函数evaluate

复制代码
model.evaluate(x_test,y_test,batch_size=1)
运行结果:

2.卷积神经网络

2.1加载显示图像

2.1.1导入加载内置图像的库

复制代码
from sklearn.datasets import load_sample_image

2.1.2将图像进行归一化

复制代码
china = load_sample_image('china.jpg')/255

flower = load_sample_image('flower.jpg')/255

2.1.3绘制图像

复制代码
plt.subplot(1,2,1)
plt.imshow(china)
plt.subplot(1,2,2)
plt.imshow(flower)

2.1.4输出维度

复制代码
print('china.jpg的维度:',china.shape)
print('flower.jpg的维度:',flower.shape)

2.1.5将两张图像组成一个数组

复制代码
imgs = np.array([china,flower])
img_shape = imgs.shape

print('数据集的维度:',img_shape)
运行结果:

2.2确定卷积层大小,滑动步长 输出特征图数目

复制代码
u = 7            #卷积层大小
s = 1            #滑动步长
p = 5            #输出特征图数目

2.3定义二维卷积层

python 复制代码
conv = keras.layers.Conv2D(filters = p,kernel_size = u,strides = s,padding = 'SAME',activation = 'relu',input_shape = img_shape)

参数1:卷积核数量

参数2:卷积核的大小

参数3:卷积的步长

参数4:卷积操作时使用的填充方式, 'SAME' 表示使用边界像素填充,保持卷积后输出的空间维度与输入相同,'VALID'不使用填充,可能会导致输出的空间维度小于输入

参数5:激活函数

参数6:输出数据的形状

2.4将二维卷积层应用于图像数组,打印卷积后的张量大小

python 复制代码
img_after_conv = conv(imgs)
print('卷积后的张量大小:',img_after_conv.shape)
运行结果:

2.5 汇聚层

2.5.1应用最大池化层到卷积后的图像数据,减少数据维度,打印处理后的图像数据的形状

定义了一个最大池化层 ,参数为:指定了池化窗口的大小
python 复制代码
pool_max = keras.layers.MaxPool2D(pool_size = 2)
将最大池化层应用到卷积后的图像数据
python 复制代码
img_after_pool_max = pool_max(img_after_conv)

print('最大汇聚后的张量大小:',img_after_pool_max.shape)
运行结果:

2.6 平均汇聚

和汇聚层操作过程一样,使用的方法不一样

keras.layers.AvgPool2D

运行结果:

2.7 全局平均汇聚

和汇聚层操作过程一样,使用的方法不一样

keras.layers.GlobalAvgPool2D

运行结果:
相关推荐
red1giant_star几秒前
浅析XSS原理与分类——含payload合集和检测与防护思路
安全·机器学习
Cosolar7 分钟前
吃透这5种Agent模式,搞定智能体开发
人工智能·面试·全栈
开开心心_Every13 分钟前
限时免费加密、隐藏、锁定文件文件夹好工具
运维·服务器·人工智能·edge·pdf·逻辑回归·深度优先
霖大侠32 分钟前
Wavelet Meets Adam: Compressing Gradients forMemory-Efficient Training
人工智能·深度学习·算法·机器学习·transformer
hyunbar77733 分钟前
Docker命令及使用指南
人工智能
龙俊俊40 分钟前
服务器模型部署与加载
服务器·人工智能·深度学习
yoso1 小时前
告别频繁切窗口!用命令行玩转企业微信-cli的七大核心功能
人工智能
用户69371750013841 小时前
Google 推 AppFunctions:手机上的 AI 终于能自己干活了
android·前端·人工智能