DAY12 Tensorflow 六步法搭建神经网络

六步法:

一.import

导入各种库,比如:

python 复制代码
import tensorflow as tf
from tensorflow.keras.layers import Dense, Flatten
from tensorflow.keras import Model
import numpy as np
import pandas as pd
# 可能还会根据需求导入其他库,如用于数据可视化的 matplotlib 等
import matplotlib.pyplot as plt

二.train,test

准备训练数据和测试数据,比如:

python 复制代码
# 以 MNIST 数据集为例
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()

# 数据预处理
x_train, x_test = x_train / 255.0, x_test / 255.0

首先,从相应的数据集中加载数据,如这里使用 mnist.load_data() 加载 MNIST 手写数字数据集,得到训练集的特征 x_train 和标签 y_train,以及测试集的特征 x_test 和标签 y_test。然后,对数据进行预处理,常见的预处理操作包括归一化、标准化等。在上述代码中,将图像像素值除以 255,将其缩放到 0 到 1 的范围,这有助于模型的训练和收敛。

三.model=tf.keras.models.Sequential

构建模型架构,比如:

python 复制代码
model = tf.keras.models.Sequential([
    Flatten(input_shape=(28, 28)),
    Dense(128, activation='relu'),
    Dense(10, activation='softmax')
])

四.model.compile

配置模型训练过程,比如:

python 复制代码
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

这一步用于配置模型的训练过程,主要设置三个重要参数:

optimizer:优化器,用于调整模型的参数以最小化损失函数。adam 是一种常用的优化器,它结合了 AdaGrad 和 RMSProp 的优点,具有自适应学习率的能力。

loss:损失函数,用于衡量模型预测结果与真实标签之间的差异。其中sparse_categorical_crossentropy 适用于标签为整数编码的多分类问题。

metrics:评估指标,用于在训练和测试过程中监控模型的性能。accuracy 表示准确率,即模型预测正确的样本数占总样本数的比例。

五,model.fit

进行模型训练,使用训练模型进行迭代训练。

python 复制代码
model.fit(x_train, y_train, epochs=5)

六,model.summary

这一步用于打印模型的结构信息,包括每一层的名称、输出形状和参数数量等。通过查看 model.summary() 的输出,你可以了解模型的整体架构和参数规模,帮助你检查模型是否符合预期,以及评估模型的复杂度。

python 复制代码
model.summary()

各自的使用方法:

Flatten只是把数值特征拉成一维数组

Dense全连接

后面是卷积神经网络层和循环神经网络层

compile配置训练方法。

validation_data和validation_split二选一,进行训练。

validation_freq 多少轮训练后用测试集测试一次。

model.summary()打印出统计结果,其中可以看到,总共的参数15个,可训练参数15个,不可训练参数0个。

以下是用六步法搭建鸢尾花分类。

python 复制代码
import tensorflow as tf
from sklearn import datasets
import numpy as np

x_train = datasets.load_iris().data
y_train = datasets.load_iris().target

np.random.seed(116)
np.random.shuffle(x_train)
np.random.seed(116)
np.random.shuffle(y_train)
tf.random.set_seed(116)

model = tf.keras.models.Sequential([
    tf.keras.layers.Dense(3, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2())
])

model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),
              loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
              metrics=['sparse_categorical_accuracy'])

model.fit(x_train, y_train, batch_size=32, epochs=500, validation_split=0.2, validation_freq=20)

model.summary()

首先import,然后两个train交代训练集和测试集。

np到tf这几个random用于打乱数据集设置。

model中设置网络结构。3指的是神经元个数是3,activation选用激活函数,最后是选用正则化方法。

complie中配置训练方法,SGD优化器,学习率0.1,选用SparseCategoricalCrossentropy当做损失函数,由于神经末端使用softmax函数,输出不是原始分布,所以logits=False。

鸢尾花数据集给的是0,1,2是数值,神经网络前向输出是概率分布,选择sparse_categorical_accuracy作为测评指标。

fit中执行训练过程,分别是 输入特征,训练集标签,训练时一次喂给神经网络多少组数据batch_size,循环迭代次数,validation_split=0.2告知从训练集中选择百分之20数据当做测试集,validation_freq=20,表示迭代20次,在测试集中验证一次准确率。

运行结果:

可见,打印出了网络结构和参数统计。

相关推荐
SEO_juper12 分钟前
AI 搜索时代:引领变革,重塑您的 SEO 战略
人工智能·搜索引擎·seo·数字营销·seo优化
shengyicanmou35 分钟前
深度解码格行无缝切网引擎:40%延迟降低背后的多网智能切换架构
人工智能·物联网·智能硬件
Hello123网站1 小时前
GLM-4-Flash:智谱AI推出的首个免费API服务,支持128K上下文
人工智能·ai工具
试剂界的爱马仕1 小时前
胶质母细胞瘤对化疗的敏感性由磷脂酰肌醇3-激酶β选择性调控
人工智能·科技·算法·机器学习·ai写作
青岛佰优联创新科技有限公司1 小时前
移动板房的网络化建设
服务器·人工智能·云计算·智慧城市
双向332 小时前
私有化部署全攻略:开源模型本地化改造的性能与安全评测
人工智能
189228048612 小时前
NY243NY253美光固态闪存NY257NY260
大数据·网络·人工智能·缓存
AI波克布林2 小时前
发文暴论!线性注意力is all you need!
人工智能·深度学习·神经网络·机器学习·注意力机制·线性注意力
张子夜 iiii2 小时前
机器学习算法系列专栏:主成分分析(PCA)降维算法(初学者)
人工智能·python·算法·机器学习
GIS宇宙2 小时前
五分钟免费开启你的Vibe Coding之旅!
人工智能