深度学习:从零开始手搓一个深层神经网络

本文将带你不依赖任何深度学习框架(如 TensorFlow 或 PyTorch),仅用 NumPy 从头实现一个完整的深层神经网络(Deep Neural Network, DNN)。我们将一步步构建前向传播、反向传播、参数更新等核心模块,并在真实的猫图识别数据集上训练模型------真正"手搓"AI!


🧱 第一步:初始化网络参数

神经网络的"大脑"就是它的参数:权重矩阵 W 和偏置向量 b。我们需要为每一层随机初始化这些参数。

复制代码
def initialize_parameters_deep(layer_dims):
    np.random.seed(1)
    parameters = {}
    L = len(layer_dims)

    for l in range(1, L):
        # 使用 Xavier 初始化(除以 sqrt(前一层神经元数))
        parameters['W' + str(l)] = np.random.randn(layer_dims[l], layer_dims[l-1]) / np.sqrt(layer_dims[l-1])
        parameters['b' + str(l)] = np.zeros((layer_dims[l], 1))
    return parameters
  • 为什么除以 sqrt(layer_dims[l-1])
    这是为了防止梯度爆炸或消失,让激活值的方差保持稳定(Xavier 初始化)。
  • 示例:layer_dims = [12288, 20, 7, 5, 1] 表示输入是 64×64×3=12288 维的图像,网络有 4 层隐藏/输出层。

🔁 第二步:前向传播(Forward Propagation)

前向传播分为两部分:线性变换 + 非线性激活

2.1 线性部分:Z = W·A + b

复制代码
def linear_forward(A, W, b):
    Z = np.dot(W, A) + b
    cache = (A, W, b)  # 缓存用于反向传播
    return Z, cache

2.2 激活函数:ReLU 或 Sigmoid

复制代码
def linear_activation_forward(A_prev, W, b, activation):
    Z, linear_cache = linear_forward(A_prev, W, b)
    if activation == "sigmoid":
        A = sigmoid(Z)
    elif activation == "relu":
        A = relu(Z)
    cache = (linear_cache, Z)
    return A, cache
  • 隐藏层用 ReLU:加速训练,缓解梯度消失。
  • 输出层用 Sigmoid:将结果压缩到 (0,1),适合二分类。

2.3 整个网络的前向传播

复制代码
def L_model_forward(X, parameters):
    caches = []
    A = X
    L = len(parameters) // 2  # 总层数

    # 前 L-1 层:ReLU
    for l in range(1, L):
        A, cache = linear_activation_forward(A, parameters['W'+str(l)], parameters['b'+str(l)], 'relu')
        caches.append(cache)

    # 最后一层:Sigmoid
    AL, cache = linear_activation_forward(A, parameters['W'+str(L)], parameters['b'+str(L)], 'sigmoid')
    caches.append(cache)
    return AL, caches

💰 第三步:计算损失(Cost Function)

我们使用二分类交叉熵损失

复制代码
def compute_cost(AL, Y):
    m = Y.shape[1]
    cost = (-1/m) * np.sum(Y * np.log(AL) + (1 - Y) * np.log(1 - AL))
    return np.squeeze(cost)

⚠️ 实际应用中建议加上 np.clip(AL, 1e-8, 1-1e-8) 防止 log(0)。


🔙 第四步:反向传播(Backpropagation)

反向传播的核心思想:链式法则 + 缓存复用

4.1 线性部分的梯度

复制代码
def linear_backward(dZ, cache):
    A_prev, W, b = cache
    m = A_prev.shape[1]

    dW = np.dot(dZ, A_prev.T) / m
    db = np.sum(dZ, axis=1, keepdims=True) / m
    dA_prev = np.dot(W.T, dZ)

    return dA_prev, dW, db

4.2 激活函数的梯度

复制代码
def linear_activation_backward(dA, cache, activation):
    linear_cache, Z = cache
    if activation == "relu":
        dZ = relu_backward(dA, Z)
    elif activation == "sigmoid":
        dZ = sigmoid_backward(dA, Z)
    return linear_backward(dZ, linear_cache)

4.3 全网络反向传播

复制代码
def L_model_backward(AL, Y, caches):
    grads = {}
    L = len(caches)
    Y = Y.reshape(AL.shape)

    # 最后一层(Sigmoid)
    dAL = -(np.divide(Y, AL) - np.divide(1 - Y, 1 - AL))
    current_cache = caches[-1]
    grads["dA"+str(L-1)], grads["dW"+str(L)], grads["db"+str(L)] = \
        linear_activation_backward(dAL, current_cache, "sigmoid")

    # 前面各层(ReLU)
    for l in reversed(range(1, L)):
        current_cache = caches[l-1]
        dA_prev, dW, db = linear_activation_backward(grads["dA"+str(l)], current_cache, "relu")
        grads["dA"+str(l-1)] = dA_prev
        grads["dW"+str(l)] = dW
        grads["db"+str(l)] = db

    return grads

🔄 第五步:参数更新(Gradient Descent)

有了梯度,就可以用梯度下降法更新参数:

复制代码
def update_parameters(parameters, grads, learning_rate):
    L = len(parameters) // 2
    for l in range(1, L + 1):
        parameters["W" + str(l)] -= learning_rate * grads["dW" + str(l)]
        parameters["b" + str(l)] -= learning_rate * grads["db" + str(l)]
    return parameters

🏗️ 第六步:整合训练流程

把所有模块组装成一个完整的训练函数:

复制代码
def dnn_model(X, Y, layers_dims, learning_rate=0.0075, num_iterations=2000, print_cost=True):
    parameters = initialize_parameters_deep(layers_dims)
    costs = []

    for i in range(num_iterations):
        AL, caches = L_model_forward(X, parameters)
        cost = compute_cost(AL, Y)
        grads = L_model_backward(AL, Y, caches)
        parameters = update_parameters(parameters, grads, learning_rate)

        if print_cost and i % 100 == 0:
            print(f"训练 {i} 次后成本是: {cost:.6f}")
            costs.append(cost)

    plt.plot(costs)
    plt.title(f"Learning rate = {learning_rate}")
    plt.xlabel("Iterations (per hundreds)")
    plt.ylabel("Cost")
    plt.show()

    return parameters

🐱 第七步:在真实数据上训练

我们使用经典的 猫图识别数据集(来自 Coursera Deep Learning 课程):

复制代码
# 加载并预处理数据
train_x_orig, train_y, test_x_orig, test_y, classes = load_data()
train_x = train_x_orig.reshape(train_x_orig.shape[0], -1).T / 255.
test_x = test_x_orig.reshape(test_x_orig.shape[0], -1).T / 255.

# 构建 4 层网络:12288 → 20 → 7 → 5 → 1
layers_dims = [12288, 20, 7, 5, 1]
parameters = dnn_model(train_x, train_y, layers_dims, num_iterations=2000, print_cost=True)

🎯 总结

通过这篇文章,我们亲手实现了:

  • 参数初始化
  • 前向传播(含 ReLU/Sigmoid)
  • 成本计算
  • 反向传播(链式求导 + 缓存机制)
  • 梯度下降更新
  • 完整训练循环

没有调用任何高级 API,一切尽在掌握之中!

这不仅加深了对神经网络内部机制的理解,也为后续学习更复杂的模型(如 CNN、RNN)打下坚实基础。

💡 真正的深度学习,始于手搓一行代码。

相关推荐
却道天凉_好个秋2 小时前
OpenCV(二十六):高斯滤波
人工智能·opencv·计算机视觉
汗流浃背了吧,老弟!2 小时前
语言模型(Language Model)介绍
人工智能·语言模型·自然语言处理
沫儿笙2 小时前
IGM焊接机器人节气设备
人工智能·机器人
Vadaski2 小时前
为什么每个团队都需要一套私有 Context 工程
人工智能
人工智能训练2 小时前
Docker中容器的备份方法和步骤
linux·运维·人工智能·ubuntu·docker·容器·nvidia
高洁012 小时前
具身智能-8家国内外典型具身智能VLA模型深度解析
深度学习·神经网络·aigc·transformer·知识图谱
渡我白衣3 小时前
深入 Linux 内核启动:从按下电源到用户登录的全景解剖
java·linux·运维·服务器·开发语言·c++·人工智能
甄心爱学习3 小时前
数据挖掘11-分类的高级方法
人工智能·算法·分类·数据挖掘
李昊哲小课3 小时前
wsl ubuntu24.04 cuda13 cudnn9 pytorch 显卡加速
人工智能·pytorch·python·cuda·cudnn