简单神经网络(ANN)实现:从零开始构建第一个模型

本文将手把手带你用 Python + Numpy 实现一个最基础的人工神经网络(Artificial Neural Network, ANN)。不依赖任何深度学习框架,适合入门理解神经网络的本质。


一、项目目标

构建一个三层神经网络(输入层、隐藏层、输出层),用于解决一个简单的二分类任务,例如根据两个输入特征判断输出是 0 还是 1。


二、基本结构说明

我们将构建如下结构的神经网络:

复制代码

复制编辑

输入层(2个神经元) → 隐藏层(4个神经元) → 输出层(1个神经元)

  • 激活函数:使用 Sigmoid

  • 损失函数:均方误差

  • 学习方式:批量梯度下降 + 手动反向传播


三、准备数据

我们使用一个简单的数据集(可类比于 AND/OR 操作):

python 复制代码
import numpy as np

# 输入数据:4组样本,每组2个特征
X = np.array([
    [0, 0],
    [0, 1],
    [1, 0],
    [1, 1]
])

# 标签:这里我们尝试模拟逻辑或(OR)操作
y = np.array([[0], [1], [1], [1]])

四、初始化网络参数

python 复制代码
np.random.seed(0)

# 网络结构:2 → 4 → 1
input_size = 2
hidden_size = 4
output_size = 1

# 权重初始化(正态分布)
W1 = np.random.randn(input_size, hidden_size)
b1 = np.zeros((1, hidden_size))

W2 = np.random.randn(hidden_size, output_size)
b2 = np.zeros((1, output_size))

五、激活函数

python 复制代码
def sigmoid(x):
    return 1 / (1 + np.exp(-x))

def sigmoid_derivative(x):
    # 输入为 sigmoid 的输出值
    return x * (1 - x)

六、训练循环

我们进行 10000 次迭代,手动实现前向传播、损失计算和反向传播。

python 复制代码
learning_rate = 0.1
for epoch in range(10000):
    # --- 正向传播 ---
    z1 = np.dot(X, W1) + b1
    a1 = sigmoid(z1)

    z2 = np.dot(a1, W2) + b2
    a2 = sigmoid(z2)  # 预测值

    # --- 损失计算(均方误差)---
    loss = np.mean((y - a2) ** 2)

    # --- 反向传播 ---
    error_output = y - a2
    d_output = error_output * sigmoid_derivative(a2)

    error_hidden = d_output.dot(W2.T)
    d_hidden = error_hidden * sigmoid_derivative(a1)

    # --- 参数更新 ---
    W2 += a1.T.dot(d_output) * learning_rate
    b2 += np.sum(d_output, axis=0, keepdims=True) * learning_rate

    W1 += X.T.dot(d_hidden) * learning_rate
    b1 += np.sum(d_hidden, axis=0, keepdims=True) * learning_rate

    if epoch % 1000 == 0:
        print(f"Epoch {epoch}, Loss: {loss:.4f}")

七、模型测试

python 复制代码
print("预测结果:")
print(a2.round())

输出如下,接近 OR 操作的结果 [0, 1, 1, 1]

Lua 复制代码
预测结果:
[[0.]
 [1.]
 [1.]
 [1.]]

八、总结与拓展

通过这篇文章,我们实现了一个从零开始的神经网络:

  • 完整构建了网络结构(无需框架)

  • 实现了正向传播与反向传播

  • 成功对二分类任务进行了拟合

拓展建议:

  • 改用 ReLU 激活函数;

  • 增加网络层数,提升模型表达能力;

  • 用 Softmax 处理多分类问题;

  • 尝试用真实数据集,如鸢尾花(Iris)或 MNIST。


这类"纯手写"的 ANN 实战项目非常适合用来理解深度学习的本质机制。如果你打算继续深入,可以尝试逐步迁移到 PyTorch 或 TensorFlow 框架实现更复杂的模型。

相关推荐
zy_destiny几秒前
【工业场景】用YOLOv26实现4种输电线隐患检测
人工智能·深度学习·算法·yolo·机器学习·计算机视觉·输电线隐患识别
放氮气的蜗牛7 分钟前
从头开始学习AI:第五章 - 多分类与正则化技术
人工智能·学习·分类
Black蜡笔小新8 分钟前
终结“监控盲区”:EasyGBS视频质量诊断技术多场景应用设计
人工智能·音视频·视频质量诊断
雍凉明月夜9 分钟前
深度学习之目标检测yolo算法Ⅴ-YOLOv8
深度学习·yolo·目标检测
聊聊科技9 分钟前
打破固化编曲思维,AI编曲软件为原创音乐人注入制作歌曲伴奏新创意
人工智能
智驱力人工智能10 分钟前
货车违规变道检测 高速公路安全治理的工程实践 货车变道检测 高速公路货车违规变道抓拍系统 城市快速路货车压实线识别方案
人工智能·opencv·算法·安全·yolo·目标检测·边缘计算
乾元10 分钟前
实战案例:解析某次真实的“AI vs. AI”攻防演练
运维·人工智能·安全·web安全·机器学习·架构
AiTop10015 分钟前
智谱开源GLM-OCR:0.9B小模型在复杂文档处理登顶SOTA
人工智能·ai·aigc
晓晓不觉早16 分钟前
OpenAI Codex App的推出:多代理工作流的新时代
人工智能·gpt
大数据在线20 分钟前
硬件涨价超级周期:智算中心价值逻辑迎来重构
人工智能·数据中心·智算中心·内存涨价·曙光存储