【机器学习】二分类神经网络

本教程旨在帮助初学者理解神经网络的基本原理和实现,特别针对二分类任务,深入解析其正向传播和反向传播的数学推导,并逐步用 numpy 实现完整的神经网络模型,最终使用 PyTorch 简化实现。

神经网络基本概念

神经网络是一种**基于神经元(节点)构建的机器学习模型。每个节点接收输入、执行计算并输出结果。通过多个层(layer)**的堆叠和复杂的计算结构,神经网络可以逼近任意的非线性关系。

数据准备

我们首先生成一个简单的二分类数据集。每个数据点有两个特征,我们希望训练一个神经网络模型预测其类别(0 或 1)。

python 复制代码
import numpy as np
import matplotlib.pyplot as plt

# 生成数据
np.random.seed(0)
num_points = 200
X = np.random.randn(num_points, 2)
y = (X[:, 0] * X[:, 1] > 0).astype(int)  # 创建一个简单的二分类数据集

# 数据可视化
plt.scatter(X[y == 0, 0], X[y == 0, 1], color='red', label='Class 0')
plt.scatter(X[y == 1, 0], X[y == 1, 1], color='blue', label='Class 1')
plt.xlabel("Feature 1")
plt.ylabel("Feature 2")
plt.title("Binary Classification Data")
plt.legend()
plt.show()

构建神经网络的基本结构

我们构建一个简单的神经网络结构,包含:

  • 输入层:接受数据输入。
  • 隐藏层:使用ReLU激活函数进行非线性变换。
  • 输出层:通过sigmoid激活函数输出0到1之间的概率,用于二分类。

正向传播(Forward Propagation)

正向传播是指数据从输入层流向输出层的计算过程。

  1. 输入层到隐藏层 :计算 Z1 = X * W1 + b1
  2. 激活函数:在隐藏层使用 ReLU 函数。
  3. 隐藏层到输出层 :计算 Z2 = A1 * W2 + b2,然后使用 sigmoid 激活函数获得输出概率。
python 复制代码
# 初始化参数函数
def initialize_parameters(input_dim, hidden_dim, output_dim):
    """
    初始化神经网络的权重和偏置参数。
    
    参数:
    - input_dim: 输入层神经元数量(即特征数量)
    - hidden_dim: 隐藏层神经元数量
    - output_dim: 输出层神经元数量(对于二分类输出为1)

    返回:
    - W1: 输入层到隐藏层的权重矩阵,形状为 (input_dim, hidden_dim)
    - b1: 隐藏层的偏置项,形状为 (1, hidden_dim)
    - W2: 隐藏层到输出层的权重矩阵,形状为 (hidden_dim, output_dim)
    - b2: 输出层的偏置项,形状为 (1, output_dim)
    """
    np.random.seed(1)  # 固定随机种子,保证每次初始化相同
    # 初始化 W1,权重较小以防止初始值过大影响训练
    W1 = np.random.randn(input_dim, hidden_dim) * 0.01
    b1 = np.zeros((1, hidden_dim))  # 初始化 b1 为零,避免对初始输出的影响
    W2 = np.random.randn(hidden_dim, output_dim) * 0.01
    b2 = np.zeros((1, output_dim))
    return W1, b1, W2, b2

# ReLU 激活函数
def relu(Z):
    """
    ReLU(线性整流)激活函数,返回输入中每个值的最大值和 0 的较大值。
    
    参数:
    - Z: 输入数组,可以是任意形状

    返回:
    - A: ReLU 激活后的输出,与 Z 形状相同
    """
    return np.maximum(0, Z)

# Sigmoid 激活函数
def sigmoid(Z):
    """
    Sigmoid 激活函数,将输入值映射到 0 到 1 之间的范围,用于二分类问题。
    
    参数:
    - Z: 输入数组,可以是任意形状

    返回:
    - A: Sigmoid 激活后的输出,与 Z 形状相同
    """
    return 1 / (1 + np.exp(-Z))

# 正向传播函数
def forward_propagation(X, W1, b1, W2, b2):
    """
    执行神经网络的正向传播过程。
    
    参数:
    - X: 输入数据矩阵,形状为 (样本数, 输入层神经元数)
    - W1, b1: 输入层到隐藏层的权重和偏置
    - W2, b2: 隐藏层到输出层的权重和偏置

    返回:
    - A2: 输出层激活值,形状为 (样本数, 输出层神经元数)
    - cache: 包含正向传播中间计算结果的字典(供反向传播使用)
    """
    # 计算隐藏层的线性组合 Z1 = X * W1 + b1
    Z1 = np.dot(X, W1) + b1
    # 通过 ReLU 激活函数得到 A1
    A1 = relu(Z1)
    # 计算输出层的线性组合 Z2 = A1 * W2 + b2
    Z2 = np.dot(A1, W2) + b2
    # 通过 Sigmoid 激活函数得到最终输出 A2
    A2 = sigmoid(Z2)
    
    # 将所有计算结果缓存,以便反向传播时使用
    cache = (Z1, A1, W1, b1, Z2, A2, W2, b2)
    return A2, cache

损失函数(Loss Function)

对于二分类任务,常用的损失函数是二元交叉熵损失 (binary cross-entropy loss),其定义为:
Loss = − 1 m ∑ i = 1 m ( y ( i ) log ⁡ ( y ^ ( i ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − y ^ ( i ) ) ) \text{Loss} = -\frac{1}{m} \sum_{i=1}^m (y^{(i)} \log(\hat{y}^{(i)}) + (1 - y^{(i)}) \log(1 - \hat{y}^{(i)})) Loss=−m1i=1∑m(y(i)log(y^(i))+(1−y(i))log(1−y^(i)))

python 复制代码
# 定义损失函数
def compute_loss(A2, Y):
    """
    计算二分类问题的交叉熵损失函数。
    
    参数:
    - A2: 模型的预测输出,形状为 (样本数, 1),值在 0 到 1 之间
    - Y: 实际标签,形状为 (样本数, 1),值为 0 或 1

    返回:
    - loss: 交叉熵损失的平均值,标量
    """
    m = Y.shape[0]  # 获取样本数

    # 计算交叉熵损失,每个样本的损失为 -[y*log(a) + (1-y)*log(1-a)]
    loss = -np.mean(Y * np.log(A2) + (1 - Y) * np.log(1 - A2))
    
    return loss

反向传播(Backward Propagation)

反向传播通过链式法则计算损失函数对每个参数的梯度,从而更新参数以最小化损失。具体步骤如下:

  1. 计算输出层的梯度。
  2. 通过输出层的梯度,进一步计算隐藏层的梯度。
  3. 使用梯度下降算法更新参数。
python 复制代码
# 反向传播函数
def backward_propagation(X, Y, cache):
    """
    执行神经网络的反向传播计算梯度,以用于更新参数。
    
    参数:
    - X: 输入数据矩阵,形状为 (样本数, 输入层神经元数)
    - Y: 实际标签,形状为 (样本数, 1)
    - cache: 包含正向传播中间结果的字典,供反向传播计算使用

    返回:
    - gradients: 包含各层参数梯度的字典,供梯度下降法更新参数
    """
    # 解包缓存的中间结果
    Z1, A1, W1, b1, Z2, A2, W2, b2 = cache
    m = X.shape[0]  # 获取样本数量
    
    # 计算输出层的梯度
    dZ2 = A2 - Y  # A2 是模型预测值,Y 是实际值,计算损失对 Z2 的梯度
    dW2 = (1 / m) * np.dot(A1.T, dZ2)  # 损失对 W2 的梯度
    db2 = (1 / m) * np.sum(dZ2, axis=0, keepdims=True)  # 损失对 b2 的梯度
    
    # 计算隐藏层的梯度
    dA1 = np.dot(dZ2, W2.T)  # 反向传播 dZ2,通过 W2 获得 dA1
    dZ1 = dA1 * (Z1 > 0)  # ReLU 导数,当 Z1 > 0 时导数为 1,否则为 0
    dW1 = (1 / m) * np.dot(X.T, dZ1)  # 损失对 W1 的梯度
    db1 = (1 / m) * np.sum(dZ1, axis=0, keepdims=True)  # 损失对 b1 的梯度
    
    # 将各梯度存入字典,便于更新
    gradients = {"dW1": dW1, "db1": db1, "dW2": dW2, "db2": db2}
    return gradients

参数更新

通过反向传播获得梯度后,我们使用梯度下降算法更新参数。更新公式如下:

W = W − α ⋅ d W b = b − α ⋅ d b W = W - \alpha \cdot dW\\ b = b - \alpha \cdot db W=W−α⋅dWb=b−α⋅db

python 复制代码
# 参数更新函数
def update_parameters(W1, b1, W2, b2, gradients, learning_rate=0.01):
    """
    使用梯度下降法更新模型参数。
    
    参数:
    - W1, b1, W2, b2: 当前神经网络的权重和偏置参数
    - gradients: 包含各参数梯度的字典(从反向传播计算得出)
    - learning_rate: 学习率,控制更新步长,默认为 0.01

    返回:
    - W1, b1, W2, b2: 更新后的参数
    """
    # 使用学习率调整各参数的梯度,更新 W1
    W1 -= learning_rate * gradients["dW1"]
    # 更新 b1
    b1 -= learning_rate * gradients["db1"]
    # 更新 W2
    W2 -= learning_rate * gradients["dW2"]
    # 更新 b2
    b2 -= learning_rate * gradients["db2"]
    
    return W1, b1, W2, b2

训练神经网络

我们将上述步骤整合到一个完整的训练过程中,循环执行正向传播、损失计算、反向传播和参数更新。

python 复制代码
# 定义训练神经网络的函数
def train_neural_network(X, Y, input_dim, hidden_dim, output_dim, epochs=1000, learning_rate=0.01):
    """
    训练神经网络模型,使用梯度下降法优化参数。
    
    参数:
    - X: 输入数据矩阵,形状为 (样本数, 输入层神经元数)
    - Y: 实际标签矩阵,形状为 (样本数, 1)
    - input_dim: 输入层的神经元数量
    - hidden_dim: 隐藏层的神经元数量
    - output_dim: 输出层的神经元数量
    - epochs: 训练迭代次数,默认为 1000
    - learning_rate: 学习率,控制每次参数更新的步长,默认为 0.01

    返回:
    - W1, b1, W2, b2: 训练好的参数
    - losses: 每个 epoch 的损失值列表,用于可视化
    """
    # 初始化参数
    W1, b1, W2, b2 = initialize_parameters(input_dim, hidden_dim, output_dim)
    losses = []  # 存储每个 epoch 的损失值,用于后续绘图

    # 迭代训练
    for epoch in range(epochs):
        # 正向传播
        A2, cache = forward_propagation(X, W1, b1, W2, b2)

        # 计算损失
        loss = compute_loss(A2, Y)
        losses.append(loss)  # 保存当前损失值

        # 反向传播
        gradients = backward_propagation(X, Y, cache)

        # 更新参数
        W1, b1, W2, b2 = update_parameters(W1, b1, W2, b2, gradients, learning_rate)

        # 每 100 个 epoch 打印一次损失
        if epoch % 100 == 0:
            print(f"Epoch {epoch}, Loss: {loss}")

    return W1, b1, W2, b2, losses

# 使用数据训练神经网络
Y = y.reshape(-1, 1)  # 确保标签是列向量,符合网络输入要求
W1, b1, W2, b2, losses = train_neural_network(X, Y, input_dim=2, hidden_dim=4, output_dim=1, epochs=1000, learning_rate=0.1)

# 可视化训练过程中的损失变化
import matplotlib.pyplot as plt

plt.plot(losses)
plt.xlabel("Epoch")
plt.ylabel("Loss")
plt.title("Training Loss")
plt.show()

模型预测

模型训练后,我们可以使用训练得到的参数进行预测。

python 复制代码
# 定义预测函数
def predict(X, W1, b1, W2, b2):
    A2, _ = forward_propagation(X, W1, b1, W2, b2)
    predictions = (A2 > 0.5).astype(int)
    return predictions

# 预测并可视化分类结果
predictions = predict(X, W1, b1, W2, b2)

# 绘制预测结果
plt.scatter(X[predictions.flatten() == 0, 0], X[predictions.flatten() == 0, 1], color='red', label='Class 0')
plt.scatter(X[predictions.flatten() == 1, 0], X[predictions.flatten() == 1, 1], color='blue', label='Class 1

')
plt.xlabel("Feature 1")
plt.ylabel("Feature 2")
plt.title("Prediction Results")
plt.legend()
plt.show()

使用PyTorch简化实现

在实际应用中,可以使用深度学习库如 PyTorch 快速实现同样的网络结构。

python 复制代码
# 导入必要库
import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt

# 将数据转换为 PyTorch tensor
X_tensor = torch.FloatTensor(X)  # 将数据 X 转换为浮点数 tensor
y_tensor = torch.FloatTensor(Y)  # 将标签 y 转换为浮点数 tensor

# 定义简单的二分类神经网络
class SimpleNN(nn.Module):
    def __init__(self):
        super(SimpleNN, self).__init__()
        self.hidden = nn.Linear(2, 4)   # 隐藏层
        self.output = nn.Linear(4, 1)   # 输出层
    
    def forward(self, x):
        x = torch.relu(self.hidden(x))  # 使用 ReLU 激活函数
        x = torch.sigmoid(self.output(x))  # 使用 Sigmoid 激活函数
        return x

# 创建模型实例、定义损失函数和优化器
model = SimpleNN()
criterion = nn.BCELoss()
optimizer = optim.Adam(model.parameters(), lr=0.01)

# 训练模型并记录损失
epochs = 1000
losses = []
for epoch in range(epochs):
    optimizer.zero_grad()
    output = model(X_tensor)
    loss = criterion(output, y_tensor)
    loss.backward()
    optimizer.step()
    losses.append(loss.item())
    if epoch % 100 == 0:
        print(f"Epoch {epoch}, Loss: {loss.item()}")

# 绘制训练过程中损失值变化
plt.plot(losses)
plt.xlabel("Epoch")
plt.ylabel("Loss")
plt.title("Training Loss over Epochs")
plt.show()

# 使用训练好的模型进行预测
with torch.no_grad():  # 禁用梯度计算,提高效率
    predictions = model(X_tensor)  # 获取预测值
    predicted_labels = (predictions > 0.5).float()  # 0.5 阈值将预测值转为二分类

# 绘制预测结果
plt.figure(figsize=(8, 6))
# 绘制预测为类别 1 的点
plt.scatter(X[predicted_labels.squeeze() == 1, 0], X[predicted_labels.squeeze() == 1, 1], color="blue", label="Predicted Class 1")
# 绘制预测为类别 0 的点
plt.scatter(X[predicted_labels.squeeze() == 0, 0], X[predicted_labels.squeeze() == 0, 1], color="red", label="Predicted Class 0")
# 绘制原始数据的分布
plt.scatter(X[Y.squeeze() == 1, 0], X[Y.squeeze() == 1, 1], color="cyan", marker="x", label="Actual Class 1")
plt.scatter(X[Y.squeeze() == 0, 0], X[Y.squeeze() == 0, 1], color="orange", marker="x", label="Actual Class 0")

# 添加图例和标签
plt.xlabel("Feature 1")
plt.ylabel("Feature 2")
plt.title("Prediction Results vs Actual Data")
plt.legend()
plt.show()

总结

通过本教程,我们从原理到实现全程了解了一个简单二分类神经网络的核心构造,并掌握了正向传播和反向传播的推导和实现。希望这为你深入学习神经网络和深度学习打下了坚实的基础。

相关推荐
IT古董8 小时前
【漫话机器学习系列】019.布里(莱)尔分数(Birer score)
人工智能·深度学习·机器学习
醒了就刷牙8 小时前
transformer用作分类任务
深度学习·分类·transformer
四口鲸鱼爱吃盐8 小时前
Pytorch | 从零构建ParNet/Non-Deep Networks对CIFAR10进行分类
人工智能·pytorch·分类
小陈phd9 小时前
深度学习实战之超分辨率算法(tensorflow)——ESPCN
网络·深度学习·神经网络·tensorflow
gang_unerry9 小时前
量子退火与机器学习(1):少量数据求解未知QUBO矩阵,以少见多
人工智能·python·算法·机器学习·数学建模·矩阵·量子计算
视觉&物联智能11 小时前
【杂谈】-为什么Python是AI的首选语言
开发语言·人工智能·python·深度学习·机器学习
IT古董11 小时前
【机器学习】机器学习的基本分类-强化学习-模型预测控制(MPC:Model Predictive Control)
人工智能·机器学习·分类
落魄君子11 小时前
CNN回归-卷积神经网络(Convolutional Neural Network)
人工智能·神经网络·回归·cnn
叶庭云11 小时前
一文理解机器学习中二分类任务的评价指标 AUPRC 和 AUROC
机器学习·二分类·auprc·auroc·定义、原理、优缺点、适用场景