DAY11 Tensorflow 鸢尾花数据集可视化训练

此篇用于作分析代码的记录,代码来自中国大学MOOC 人工智能实践:Tensorflow笔记

代码:

python 复制代码
# -*- coding: UTF-8 -*-
# 利用鸢尾花数据集,实现前向传播、反向传播,可视化loss曲线

# 导入所需模块
import tensorflow as tf
from sklearn import datasets
from matplotlib import pyplot as plt
import numpy as np

# 导入数据,分别为输入特征和标签
x_data = datasets.load_iris().data
y_data = datasets.load_iris().target

# 随机打乱数据(因为原始数据是顺序的,顺序不打乱会影响准确率)
# seed: 随机数种子,是一个整数,当设置之后,每次生成的随机数都一样(为方便教学,以保每位同学结果一致)
np.random.seed(116)  # 使用相同的seed,保证输入特征和标签一一对应
np.random.shuffle(x_data)
np.random.seed(116)
np.random.shuffle(y_data)
tf.random.set_seed(116)

# 将打乱后的数据集分割为训练集和测试集,训练集为前120行,测试集为后30行
x_train = x_data[:-30]
y_train = y_data[:-30]
x_test = x_data[-30:]
y_test = y_data[-30:]

# 转换x的数据类型,否则后面矩阵相乘时会因数据类型不一致报错
x_train = tf.cast(x_train, tf.float32)
x_test = tf.cast(x_test, tf.float32)

# from_tensor_slices函数使输入特征和标签值一一对应。(把数据集分批次,每个批次batch组数据)
train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)
test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)

# 生成神经网络的参数,4个输入特征故,输入层为4个输入节点;因为3分类,故输出层为3个神经元
# 用tf.Variable()标记参数可训练
# 使用seed使每次生成的随机数相同(方便教学,使大家结果都一致,在现实使用时不写seed)
w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev=0.1, seed=1))
b1 = tf.Variable(tf.random.truncated_normal([3], stddev=0.1, seed=1))

lr = 0.1  # 学习率为0.1
train_loss_results = []  # 将每轮的loss记录在此列表中,为后续画loss曲线提供数据
test_acc = []  # 将每轮的acc记录在此列表中,为后续画acc曲线提供数据
epoch = 500  # 循环500轮
loss_all = 0  # 每轮分4个step,loss_all记录四个step生成的4个loss的和

# 训练部分
for epoch in range(epoch):  #数据集级别的循环,每个epoch循环一次数据集
    for step, (x_train, y_train) in enumerate(train_db):  #batch级别的循环 ,每个step循环一个batch
        with tf.GradientTape() as tape:  # with结构记录梯度信息
            y = tf.matmul(x_train, w1) + b1  # 神经网络乘加运算
            y = tf.nn.softmax(y)  # 使输出y符合概率分布(此操作后与独热码同量级,可相减求loss)
            y_ = tf.one_hot(y_train, depth=3)  # 将标签值转换为独热码格式,方便计算loss和accuracy
            loss = tf.reduce_mean(tf.square(y_ - y))  # 采用均方误差损失函数mse = mean(sum(y-out)^2)
            loss_all += loss.numpy()  # 将每个step计算出的loss累加,为后续求loss平均值提供数据,这样计算的loss更准确
        # 计算loss对各个参数的梯度
        grads = tape.gradient(loss, [w1, b1])

        # 实现梯度更新 w1 = w1 - lr * w1_grad    b = b - lr * b_grad
        w1.assign_sub(lr * grads[0])  # 参数w1自更新
        b1.assign_sub(lr * grads[1])  # 参数b自更新

    # 每个epoch,打印loss信息
    print("Epoch {}, loss: {}".format(epoch, loss_all/4))
    train_loss_results.append(loss_all / 4)  # 将4个step的loss求平均记录在此变量中
    loss_all = 0  # loss_all归零,为记录下一个epoch的loss做准备

    # 测试部分
    # total_correct为预测对的样本个数, total_number为测试的总样本数,将这两个变量都初始化为0
    total_correct, total_number = 0, 0
    for x_test, y_test in test_db:
        # 使用更新后的参数进行预测
        y = tf.matmul(x_test, w1) + b1
        y = tf.nn.softmax(y)
        pred = tf.argmax(y, axis=1)  # 返回y中最大值的索引,即预测的分类
        # 将pred转换为y_test的数据类型
        pred = tf.cast(pred, dtype=y_test.dtype)
        # 若分类正确,则correct=1,否则为0,将bool型的结果转换为int型
        correct = tf.cast(tf.equal(pred, y_test), dtype=tf.int32)
        # 将每个batch的correct数加起来
        correct = tf.reduce_sum(correct)
        # 将所有batch中的correct数加起来
        total_correct += int(correct)
        # total_number为测试的总样本数,也就是x_test的行数,shape[0]返回变量的行数
        total_number += x_test.shape[0]
    # 总的准确率等于total_correct/total_number
    acc = total_correct / total_number
    test_acc.append(acc)
    print("Test_acc:", acc)
    print("--------------------------")

# 绘制 loss 曲线
plt.title('Loss Function Curve')  # 图片标题
plt.xlabel('Epoch')  # x轴变量名称
plt.ylabel('Loss')  # y轴变量名称
plt.plot(train_loss_results, label="$Loss$")  # 逐点画出trian_loss_results值并连线,连线图标是Loss
plt.legend()  # 画出曲线图标
plt.show()  # 画出图像

# 绘制 Accuracy 曲线
plt.title('Acc Curve')  # 图片标题
plt.xlabel('Epoch')  # x轴变量名称
plt.ylabel('Acc')  # y轴变量名称
plt.plot(test_acc, label="$Accuracy$")  # 逐点画出test_acc值并连线,连线图标是Accuracy
plt.legend()
plt.show()

sklearn是一个提供了一些常规数据集的包,但是目前如果直接使用pip install sklearn是无法安装的,因为sklearn包目前已经被弃用。如果你想要使用的话,可以使用 pip install scikit-learn 来进行安装。

x_data = datasets.load_iris().data
y_data = datasets.load_iris().target

x是导入的鸢尾花的特征数据,每个样本有4个特征,y是导入的鸢尾花数据集的标签数据,标签有3个类别(0,1,2)

np.random.seed(116)  # 使用相同的seed,保证输入特征和标签一一对应
np.random.shuffle(x_data)
np.random.seed(116)
np.random.shuffle(y_data)
tf.random.set_seed(116)

然后我们需要打乱数据,对数据进行训练。np.random.seed( )是一个设置随机数种子的方法,之后都为seed(116),则它们随机打乱的方法是一样的,使用同一个random的seed可以保证打乱顺序后每个数据的特征和标签可以对应上。

np.random.shuffle(x_data)np.random.shuffle(y_data)分别用于打乱特征和标签。

x_train = x_data[:-30]
y_train = y_data[:-30]
x_test = x_data[-30:]
y_test = y_data[-30:]

进行切片操作,sklearn关于鸢尾花总共是150个数据集,特征和标签的前120个用来当训练集,后30用来当测试集。

x_train = tf.cast(x_train, tf.float32)
x_test = tf.cast(x_test, tf.float32)

转换成一致的类型,避免无法进行矩阵相乘。

train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)
test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)

把特征和标签合成为一个训练对象,然后把数据集划分为大小32的批次。

w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev=0.1, seed=1))
b1 = tf.Variable(tf.random.truncated_normal([3], stddev=0.1, seed=1))

用于初始化神经网络参数,w1是输入层到输出层的权重矩阵,形状为[4,3],表示初始神经元4,训练后神经元为3,这里tf.random.truncated_normal 函数用于生成截断的正态分布随机数。stddev的参数用于设置生成随机数的离散度,这个值越大离散度越大,相对波动越大,这里设置的是0.1,也就意味着相对浮动较小,也就意味着权重矩阵元素值之间相差不会太大,比较接近均值。这样的初始化方式有助于神经网络在训练初期更稳定地学习,避免因初始权重过大或过小而导致训练困难或梯度消失 / 爆炸等问题。seed=1则是设置了随机数种子,保证每次运行代码时生成的随机数序列是相同的,方便结果的复现和调试。

b1要设置为列数与w1相同,才能进行神经网络前向运算。

lr = 0.1  # 学习率为0.1
train_loss_results = []  # 将每轮的loss记录在此列表中,为后续画loss曲线提供数据
test_acc = []  # 将每轮的acc记录在此列表中,为后续画acc曲线提供数据
epoch = 500  # 循环500轮
loss_all = 0  # 每轮分4个step,loss_all记录四个step生成的4个loss的和

这里用于定义超参数和记录列表。

# 训练部分
for epoch in range(epoch):  # 数据集级别的循环,每个epoch循环一次数据集
    for step, (x_train, y_train) in enumerate(train_db):  # batch级别的循环 ,每个step循环一个batch
        with tf.GradientTape() as tape:  # with结构记录梯度信息
            y = tf.matmul(x_train, w1) + b1  # 神经网络乘加运算
            y = tf.nn.softmax(y)  # 使输出y符合概率分布(此操作后与独热码同量级,可相减求loss)
            y_ = tf.one_hot(y_train, depth=3)  # 将标签值转换为独热码格式,方便计算loss和accuracy
            loss = tf.reduce_mean(tf.square(y_ - y))  # 采用均方误差损失函数mse = mean(sum(y-out)^2)
            loss_all += loss.numpy()  # 将每个step计算出的loss累加,为后续求loss平均值提供数据,这样计算的loss更准确
        # 计算loss对各个参数的梯度
        grads = tape.gradient(loss, [w1, b1])

        # 实现梯度更新 w1 = w1 - lr * w1_grad    b = b - lr * b_grad
        w1.assign_sub(lr * grads[0])  # 参数w1自更新
        b1.assign_sub(lr * grads[1])  # 参数b自更新

    # 每个epoch,打印loss信息
    print("Epoch {}, loss: {}".format(epoch, loss_all/4))
    train_loss_results.append(loss_all / 4)  # 将4个step的loss求平均记录在此变量中
    loss_all = 0  # loss_all归零,为记录下一个epoch的loss做准备

这里是训练部分,每个方法的作用:

  • 外层 for 循环:控制训练的轮数。

  • 内层 for 循环:遍历每个批次的数据。

  • tf.GradientTape:用于记录前向传播过程中的梯度信息。

  • tf.matmul:矩阵乘法,计算神经网络的输出。

  • tf.nn.softmax:将输出转换为概率分布。

  • tf.one_hot:将标签转换为独热码格式。

  • tf.reduce_mean(tf.square(y_ - y)):计算均方误差损失。

  • tape.gradient:计算损失对参数的梯度。

  • assign_sub:更新参数。

    测试部分

    total_correct为预测对的样本个数, total_number为测试的总样本数,将这两个变量都初始化为0

    total_correct, total_number = 0, 0
    for x_test, y_test in test_db:
    # 使用更新后的参数进行预测
    y = tf.matmul(x_test, w1) + b1
    y = tf.nn.softmax(y)
    pred = tf.argmax(y, axis=1) # 返回y中最大值的索引,即预测的分类
    # 将pred转换为y_test的数据类型
    pred = tf.cast(pred, dtype=y_test.dtype)
    # 若分类正确,则correct=1,否则为0,将bool型的结果转换为int型
    correct = tf.cast(tf.equal(pred, y_test), dtype=tf.int32)
    # 将每个batch的correct数加起来
    correct = tf.reduce_sum(correct)
    # 将所有batch中的correct数加起来
    total_correct += int(correct)
    # total_number为测试的总样本数,也就是x_test的行数,shape[0]返回变量的行数
    total_number += x_test.shape[0]

    总的准确率等于total_correct/total_number

    acc = total_correct / total_number
    test_acc.append(acc)
    print("Test_acc:", acc)
    print("--------------------------")

测试部分,大致做的内容为:

  • 遍历测试集的每个批次,使用更新后的参数进行预测。

  • tf.argmax:找出预测结果中概率最大的类别。

  • tf.equal:比较预测结果和真实标签是否相等。

  • tf.reduce_sum:统计预测正确的样本数。

  • 计算测试集的准确率并记录。

    绘制 loss 曲线

    plt.title('Loss Function Curve') # 图片标题
    plt.xlabel('Epoch') # x轴变量名称
    plt.ylabel('Loss') # y轴变量名称
    plt.plot(train_loss_results, label="Loss") # 逐点画出trian_loss_results值并连线,连线图标是Loss
    plt.legend() # 画出曲线图标
    plt.show() # 画出图像

    绘制 Accuracy 曲线

    plt.title('Acc Curve') # 图片标题
    plt.xlabel('Epoch') # x轴变量名称
    plt.ylabel('Acc') # y轴变量名称
    plt.plot(test_acc, label="Accuracy") # 逐点画出test_acc值并连线,连线图标是Accuracy
    plt.legend()
    plt.show()

这里是可视化部分的代码,引用的是matplotlib包里的内容,就不涉及关于训练的内容了。

运行结果:

相关推荐
梦里是谁N29 分钟前
【deepseek之我问】如何把AI技术与教育相结合,适龄教育,九年义务教育,以及大学教育,更着重英语学习。如何结合,给出观点。结合最新智能体Deepseek
人工智能·学习
小白狮ww1 小时前
国产超强开源大语言模型 DeepSeek-R1-70B 一键部署教程
人工智能·深度学习·机器学习·语言模型·自然语言处理·开源·deepseek
风口猪炒股指标1 小时前
想象一个AI保姆机器人使用场景分析
人工智能·机器人·deepseek·深度思考
Blankspace空白1 小时前
【小白学AI系列】NLP 核心知识点(八)多头自注意力机制
人工智能·自然语言处理
Sodas(填坑中....)1 小时前
SVM对偶问题
人工智能·机器学习·支持向量机·数据挖掘
forestsea2 小时前
DeepSeek 提示词:定义、作用、分类与设计原则
人工智能·prompt·deepseek
maxruan2 小时前
自动驾驶之BEV概述
人工智能·机器学习·自动驾驶·bev
13631676419侯2 小时前
物联网+人工智能的无限可能
人工智能·物联网
SylviaW082 小时前
神经网络八股(三)
人工智能·深度学习·神经网络
zhengyawen6663 小时前
深度学习之图像回归(二)
人工智能·数据挖掘·回归