干货分享|TensorFlow构建神经网络

MNIST数据集前面章节已经多次遇到过,这里直接引用,并使用TensorFlow构建神经网络模型进行训练。下面举例说明如何构建简单的神经网络并训练。

【例15-33】 TensorFlow构建神经网络训练MNIST数据集。

输入如下代码:

复制代码
# 构建简单模型,训练识别手写体数据集
import tensorflow as tf
# 导入数据
mnist = tf.keras.datasets.mnist
# 将样本从整数转换为浮点数
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
# 将模型的各层堆叠起来,以搭建 tf.keras.Sequential 模型。为训练选择优化器和损失函数
model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(128, activation='relu'),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Dense(10, activation='softmax')
])
model.compile(optimizer='adam',loss='sparse_categorical_crossentropy',
                 metrics=['accuracy'])
# 训练并验证模型
model.fit(x_train, y_train, epochs=5)
model.evaluate(x_test,  y_test, verbose=2)

运行结果如下:

复制代码
Epoch 1/5
1875/1875 [==============================] - 9s 3ms/step - loss: 0.2945 - accuracy: 0.9141
Epoch 2/5
1875/1875 [==============================] - 5s 3ms/step - loss: 0.1429 - accuracy: 0.9574
Epoch 3/5
1875/1875 [==============================] - 5s 3ms/step - loss: 0.1075 - accuracy: 0.9687
Epoch 4/5
1875/1875 [==============================] - 7s 4ms/step - loss: 0.0883 - accuracy: 0.9726
Epoch 5/5
1875/1875 [==============================] - 6s 3ms/step - loss: 0.0724 - accuracy: 0.9767
313/313 - 1s - loss: 0.0772 - accuracy: 0.9771 - 827ms/epoch - 3ms/step

观察运行结果,该网络训练的准确率已经达到了97.67%。该网络虽然简单,但是注释完整,包含神经网络的各个部分,各种复杂的网络都是在简单网络的基础上发展而来的,希望读者认真理解,多加训练。

本文节选自《细说机器学习:从理论到实践》,内容发布获得作者和出版社授权。

细说机器学习 从理论到实践------京东·

相关推荐
铭keny19 分钟前
YOLO11 目标检测从安装到实战
人工智能·目标检测·目标跟踪
杨小扩6 小时前
第4章:实战项目一 打造你的第一个AI知识库问答机器人 (RAG)
人工智能·机器人
whaosoft-1436 小时前
51c~目标检测~合集4
人工智能
雪兽软件6 小时前
2025 年网络安全与人工智能发展趋势
人工智能·安全·web安全
元宇宙时间7 小时前
全球发展币GDEV:从中国出发,走向全球的数字发展合作蓝图
大数据·人工智能·去中心化·区块链
小黄人20257 小时前
自动驾驶安全技术的演进与NVIDIA的创新实践
人工智能·安全·自动驾驶
ZStack开发者社区8 小时前
首批 | 云轴科技ZStack加入施耐德电气技术本地化创新生态
人工智能·科技·云计算
X Y O9 小时前
神经网络初步学习3——数据与损失
人工智能·神经网络·学习
唯创知音9 小时前
玩具语音方案选型决策OTP vs Flash 的成本功耗与灵活性
人工智能·语音识别
Jamence9 小时前
多模态大语言模型arxiv论文略读(151)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记