【深度学习程序实例】

以下是一个使用Python编写的深度学习程序实例,用于训练一个简单的神经网络来分类手写数字:

python 复制代码
import tensorflow as tf
from tensorflow.keras.datasets import mnist

# 加载MNIST数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()

# 数据预处理
x_train = x_train / 255.0
x_test = x_test / 255.0

# 构建神经网络模型
model = tf.keras.models.Sequential([
    tf.keras.layers.Flatten(input_shape=(28, 28)),
    tf.keras.layers.Dense(128, activation='relu'),
    tf.keras.layers.Dense(10, activation='softmax')
])

# 编译模型
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

# 训练模型
model.fit(x_train, y_train, epochs=10, validation_data=(x_test, y_test))

# 评估模型
loss, accuracy = model.evaluate(x_test, y_test)
print('Test loss:', loss)
print('Test accuracy:', accuracy)

# 使用模型进行预测
predictions = model.predict(x_test[:5])
print('Predictions:', predictions)

这个程序使用TensorFlow深度学习框架,通过加载MNIST数据集进行手写数字分类任务。首先,将数据进行预处理,将像素值缩放到0到1之间。然后,构建一个简单的神经网络模型,包括一个输入层、一个隐藏层和一个输出层。接下来,编译模型,指定优化器、损失函数和评估指标。然后,使用训练数据训练模型,并在测试数据上评估模型的性能。最后,使用模型进行预测并输出结果。

以下是一个使用Python编写的深度学习程序实例,用于训练一个简单的神经网络来分类手写数字:

python 复制代码
import tensorflow as tf
from tensorflow.keras.datasets import mnist

# 加载MNIST数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()

# 数据预处理
x_train = x_train / 255.0
x_test = x_test / 255.0

# 构建神经网络模型
model = tf.keras.models.Sequential([
    tf.keras.layers.Flatten(input_shape=(28, 28)),
    tf.keras.layers.Dense(128, activation='relu'),
    tf.keras.layers.Dense(10, activation='softmax')
])

# 编译模型
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

# 训练模型
model.fit(x_train, y_train, epochs=10, validation_data=(x_test, y_test))

# 评估模型
loss, accuracy = model.evaluate(x_test, y_test)
print('Test loss:', loss)
print('Test accuracy:', accuracy)

# 使用模型进行预测
predictions = model.predict(x_test[:5])
print('Predictions:', predictions)

这个程序使用TensorFlow深度学习框架,通过加载MNIST数据集进行手写数字分类任务。首先,将数据进行预处理,将像素值缩放到0到1之间。然后,构建一个简单的神经网络模型,包括一个输入层、一个隐藏层和一个输出层。接下来,编译模型,指定优化器、损失函数和评估指标。然后,使用训练数据训练模型,并在测试数据上评估模型的性能。最后,使用模型进行预测并输出结果。

相关推荐
老鱼说AI7 小时前
大规模并发处理器程序设计(PMPP)讲解(CUDA架构):第四期:计算架构与调度
c语言·深度学习·算法·架构·cuda
Hello.Reader9 小时前
深度学习 — 从人工智能到深度学习的演进之路(一)
人工智能·深度学习
剑穗挂着新流苏31211 小时前
114_PyTorch 进阶:模型保存与读取的两大方式及“陷阱”避坑指南
人工智能·pytorch·深度学习
棱镜研途13 小时前
EI会议分享 | 2026年图像处理与模式识别国际会议(IC-IPPR 2026)【SPIE出版】
图像处理·人工智能·深度学习·目标检测·计算机·计算机视觉·视觉检测
von Neumann14 小时前
大模型从入门到应用——HuggingFace:Transformers-[AutoClass]
人工智能·深度学习·机器学习·ai·大模型·huggingface
羊小猪~~14 小时前
【论文精度】Transformer---大模型基石
人工智能·深度学习·考研·算法·机器学习·transformer
scott19851215 小时前
扩散模型之(十六)生成高分辨率图像
人工智能·深度学习
zzh9407715 小时前
GPT-4o与Gemini 3镜像站背后的算力与工程:大模型训练基础设施拆解
人工智能·深度学习·架构
CoovallyAIHub15 小时前
AAAI 2026 | 华中科大联合清华等提出Anomagic:跨模态提示零样本异常生成+万级AnomVerse数据集(附代码)
深度学习·算法·计算机视觉