基于BP训练深度学习模型(用于回归)以及验证误差值

用原生Python训练了一个BP网络,适合没有pytorch等环境的电脑,并用训练的模型对原始数据进行了预测,拿来估测比较误差值了,可以直接拿去用(需根据个人数据来调训练次数、学习效率),代码在文章末

1.随机生成1000条种子数据,用于示例

2.运行BP深度学习代码,训练结果如下:

预测值与真实值进行绘图对比:

误差计算:

均方误差 (MSE): 21414.6402

平均绝对误差 (MAE): 120.8660

python 复制代码
import numpy as np
import pandas as pd
from sklearn.preprocessing import MinMaxScaler
from sklearn.metrics import mean_squared_error, mean_absolute_error
import matplotlib.pyplot as plt  # 引入matplotlib用于画图

# 激活函数:ReLU 和 ReLU 的导数
def relu(x):
    return np.maximum(0, x)

def relu_derivative(x):
    return np.where(x > 0, 1, 0)

# 数据读取函数
def load_data(file_path):
    data = pd.read_excel(file_path)  # 使用pandas读取Excel文件
    return data

# 数据预处理函数(归一化)
def preprocess_data(data):
    scaler = MinMaxScaler()
    return scaler.fit_transform(data)

# BP神经网络训练函数
def train_bp_network(X, y, input_size, hidden_size, output_size, epochs=10000, learning_rate=0.0000000009):
    # 初始化权重
    np.random.seed(42)
    W1 = np.random.rand(input_size, hidden_size)  # 输入层到隐藏层的权重
    W2 = np.random.rand(hidden_size, output_size)  # 隐藏层到输出层的权重
    b1 = np.zeros((1, hidden_size))  # 隐藏层的偏置
    b2 = np.zeros((1, output_size))  # 输出层的偏置

    # 训练过程
    for epoch in range(epochs):
        # 前向传播
        Z1 = np.dot(X, W1) + b1
        A1 = relu(Z1)  # 使用 ReLU 激活函数
        Z2 = np.dot(A1, W2) + b2
        A2 = Z2  # 回归任务的输出层通常不使用激活函数

        # 计算误差
        error = A2 - y

        # 反向传播
        dA2 = error
        dZ2 = dA2  # 回归问题,输出层不需要对激活函数求导
        dW2 = np.dot(A1.T, dZ2)
        db2 = np.sum(dZ2, axis=0, keepdims=True)

        dA1 = np.dot(dZ2, W2.T)
        dZ1 = dA1 * relu_derivative(A1)  # ReLU 的导数
        dW1 = np.dot(X.T, dZ1)
        db1 = np.sum(dZ1, axis=0, keepdims=True)

        # 更新权重和偏置
        W1 -= learning_rate * dW1
        W2 -= learning_rate * dW2
        b1 -= learning_rate * db1
        b2 -= learning_rate * db2

        # 每100次输出一次误差
        if epoch % 100 == 0:
            loss = np.mean(np.square(error))
            print(f"Epoch {epoch}, Loss: {loss:.4f}")

    return W1, W2, b1, b2

# 预测函数
def predict(X, W1, W2, b1, b2):
    Z1 = np.dot(X, W1) + b1
    A1 = relu(Z1)
    Z2 = np.dot(A1, W2) + b2
    return Z2

# 主函数
def main():
    # 1. 从Excel文件中读取数据
    data = load_data(r'C:\Users\giggle\Desktop\bp\igcsv.xlsx')  # 请根据实际文件路径修改
    
    # 假设数据的最后一列是目标变量y,前面的列是输入特征X
    X = data.iloc[:, :-1].values  # 输入特征
    y = data.iloc[:, -1].values  # 目标变量(回归目标)

    # 2. 数据归一化
    X_scaled = preprocess_data(X)
    y_scaled = y.reshape(-1, 1)  # 目标变量也需要转为列向量

    # 3. 定义神经网络的结构
    input_size = X_scaled.shape[1]  # 输入层的节点数
    hidden_size = 10  # 隐藏层的节点数,可以根据需求调整
    output_size = 1  # 输出层的节点数

    # 4. 训练BP神经网络
    W1, W2, b1, b2 = train_bp_network(X_scaled, y_scaled, input_size, hidden_size, output_size)
    '''
    # 6. 预测前十行数据的结果
    print("预测结果:")
    print(predictions[:26])  # 打印前10个预测结果
    '''
    # . 打印权重和偏置
    print("\n神经网络的训练参数:")
    print("W1 (输入层到隐藏层的权重):")
    print(W1)
    print("\nW2 (隐藏层到输出层的权重):")
    print(W2)
    print("\nb1 (隐藏层的偏置):")
    print(b1)
    print("\nb2 (输出层的偏置):")
    print(b2)

    # 5. 使用训练好的模型进行预测
    predictions = predict(X_scaled, W1, W2, b1, b2)
    # 6. 打印所有预测结果与真实值(格式化输出)
    print("\n预测结果与真实值对比:")
    print(f"{'Index':<10}{'Predicted':<15}{'True Value':<15}")
    for i in range(len(y)):
        print(f"{i+1:<10}{predictions[i][0]:<15.4f}{y[i]:<15.4f}")
    # 7. 计算并打印误差(均方误差 MSE 和 平均绝对误差 MAE)
    mse = mean_squared_error(y_scaled[:26], predictions[:26])  # 计算 MSE
    mae = mean_absolute_error(y_scaled[:26], predictions[:26])  # 计算 MAE
    '''
    print("\n真实目标值:")
    print(y[:26])  # 打印前10个真实目标值
    '''
    plt.figure(figsize=(10, 6))
    plt.plot(range(len(y)), y, label="True Value", color='blue', marker='o')
    plt.plot(range(len(y)), predictions, label="Predicted Value", color='red', marker='x')
    plt.xlabel("Sample Index")
    plt.ylabel("Value")
    plt.title("True vs Predicted Values")
    plt.legend()
    plt.grid(True)
    plt.show()
    
    print("\n误差计算:")
    print(f"均方误差 (MSE): {mse:.4f}")
    print(f"平均绝对误差 (MAE): {mae:.4f}")

if __name__ == "__main__":
    main()

希望这些能对大家有所帮助。如果你觉得这篇文章有价值,请在转载时注明来源,感谢支持!

本次分享就到这里,感谢大家的阅读!

相关推荐
lipeng0810 分钟前
大模型系列18-AI Agents
人工智能
摸鱼仙人~14 分钟前
AI 平台 GPU 节点上运行基于 PyTorch 的深度学习任务
人工智能·pytorch·深度学习
禁默17 分钟前
2025年电气、自动化与人工智能(ICEAAI 2025)
人工智能·自动化·电气
不去幼儿园26 分钟前
【强化学习】Double DQN(Double Deep Q-Network)算法
人工智能·算法·机器学习·强化学习·马尔科夫决策
goomind28 分钟前
Transformer深度学习实战TT100K中国交通标志识别
人工智能·深度学习·目标检测·transformer·交通标志识别·交通标志·tt100k
deardao1 小时前
【顶刊TPAMI 2025】多头编码(MHE)之Part 6:极限分类无需预处理
人工智能·深度学习·神经网络·分类·数据挖掘·极限标签分类
青松@FasterAI1 小时前
【NLP高频面题】用RNN训练语言模型时如何计算损失?
深度学习
WBingJ1 小时前
机器学习基础-大语言模型
人工智能·机器学习·语言模型
martian6651 小时前
【人工智能中的数据科学与数据处理】——详解人工智能中的数据科学与数据处理之数据可视化技巧
人工智能·数据科学·数据处理
御风@户外2 小时前
学习随笔:word2vec在win11 vs2022下编译、测试运行
人工智能·word2vec