神经网络入门:从零开始构建你的第一个深度学习模型


✨道路是曲折的,前途是光明的!

📝 专注C/C++、Linux编程与人工智能领域,分享学习笔记!

🌟 感谢各位小伙伴的长期陪伴与支持,欢迎文末添加好友一起交流!


前言

神经网络是深度学习的基石,也是人工智能领域最激动人心的技术之一。本文将带你从零开始,理解神经网络的核心概念,并用代码实现一个简单的神经网络模型。

什么是神经网络?

神经网络是一种受人脑神经元结构启发的机器学习模型。它由相互连接的节点(神经元)组成,通过层层传递和处理信息来完成学习任务。

基本结构

Output Layer
Hidden Layer
Input Layer
输入特征1
输入特征2
输入特征3
神经元1
神经元2
神经元3
神经元4
输出1
输出2

核心概念

1. 神经元

每个神经元接收输入,通过权重和偏置计算,最后通过激活函数产生输出:

复制代码
output = activation(Σ(input × weight) + bias)

2. 激活函数

激活函数引入非线性,使网络能够学习复杂的模式。

激活函数 特点 适用场景
ReLU 计算简单,缓解梯度消失 隐藏层首选
Sigmoid 输出在0-1之间 二分类输出层
Softmax 输出概率分布 多分类输出层

3. 前向传播

前向传播是数据从输入层流向输出层的过程。
输入数据
输入层
隐藏层1
隐藏层2
输出层
预测结果

PyTorch实战代码

1. 定义神经网络

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

# 定义一个简单的全连接神经网络
class SimpleNet(nn.Module):
    def __init__(self, input_size, hidden_size, num_classes):
        super(SimpleNet, self).__init__()
        # 第一层:输入层到隐藏层
        self.layer1 = nn.Linear(input_size, hidden_size)
        self.relu = nn.ReLU()
        # 第二层:隐藏层到输出层
        self.layer2 = nn.Linear(hidden_size, num_classes)

    def forward(self, x):
        out = self.layer1(x)
        out = self.relu(out)
        out = self.layer2(out)
        return out

# 初始化模型
model = SimpleNet(input_size=784, hidden_size=128, num_classes=10)
print(model)

2. 训练循环

python 复制代码
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 训练循环
num_epochs = 10

for epoch in range(num_epochs):
    for batch_idx, (data, targets) in enumerate(train_loader):
        # 前向传播
        outputs = model(data)
        loss = criterion(outputs, targets)

        # 反向传播和优化
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

    print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

训练流程图



开始
初始化模型参数
获取训练数据批次
前向传播计算预测
计算损失
反向传播计算梯度
更新权重参数
是否完成所有epoch?
训练完成

损失函数的作用

损失函数衡量模型预测与真实值的差距:

python 复制代码
# 常用损失函数示例

# 1. 均方误差(回归任务)
mse_loss = nn.MSELoss()

# 2. 交叉熵(分类任务)
cross_entropy = nn.CrossEntropyLoss()

# 3. 二元交叉熵(二分类)
bce_loss = nn.BCELoss()

反向传播与梯度下降

反向传播是训练神经网络的核心算法:
计算损失
计算输出层梯度
计算隐藏层梯度
计算输入层梯度
更新所有权重

完整训练示例

python 复制代码
import torch
import torch.nn as nn
from torch.utils.data import DataLoader, TensorDataset

# 创建示例数据
X = torch.randn(1000, 20)  # 1000个样本,20个特征
y = torch.randint(0, 2, (1000,))  # 二分类标签

# 创建数据加载器
dataset = TensorDataset(X, y)
train_loader = DataLoader(dataset, batch_size=32, shuffle=True)

# 定义模型
class BinaryClassifier(nn.Module):
    def __init__(self):
        super().__init__()
        self.network = nn.Sequential(
            nn.Linear(20, 64),
            nn.ReLU(),
            nn.Dropout(0.2),
            nn.Linear(64, 32),
            nn.ReLU(),
            nn.Linear(32, 1),
            nn.Sigmoid()
        )

    def forward(self, x):
        return self.network(x)

# 训练
model = BinaryClassifier()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
criterion = nn.BCELoss()

for epoch in range(5):
    epoch_loss = 0
    for X_batch, y_batch in train_loader:
        optimizer.zero_grad()
        predictions = model(X_batch).squeeze()
        loss = criterion(predictions, y_batch.float())
        loss.backward()
        optimizer.step()
        epoch_loss += loss.item()
    print(f'Epoch {epoch+1}, Average Loss: {epoch_loss/len(train_loader):.4f}')

总结

通过本文,我们学习了:

  1. 神经网络的基本结构和组成
  2. 前向传播和反向传播的原理
  3. 使用PyTorch构建和训练神经网络

进一步学习方向

  • CNN(卷积神经网络):图像处理领域
  • RNN/LSTM:序列数据处理
  • Transformer:自然语言处理
  • GAN(生成对抗网络):图像生成

神经网络的世界非常广阔,继续探索吧!


参考资料:


✍️ 坚持用 清晰易懂的图解 + 可落地的代码,让每个知识点都 简单直观!

💡 座右铭 :"道路是曲折的,前途是光明的!"

相关推荐
landyjzlai33 分钟前
蓝迪哥玩转Ai(8)---端侧AI:RK3588 端侧大语言模型(LLM)开发实战指南
人工智能·python
ZhengEnCi3 小时前
05-自注意力机制详解 🧠
人工智能·pytorch·深度学习
前端程序媛-Tian3 小时前
前端 AI 提效实战:从 0 到 1 打造团队专属 AI 代码评审工具
前端·人工智能·ai
weixin_417197053 小时前
DeepSeek V4绑定华为:一场飞行中换引擎的国产算力革命
人工智能·华为
翼龙云_cloud3 小时前
阿里云代理商:阿里云深度适配DeepSeek V4让中小企业 AI零门槛上云
人工智能·阿里云·云计算·ai智能体·deepseek v4
MATLAB代码顾问3 小时前
DeepSeek R1:国产开源推理大模型的崛起与实践
人工智能
__Wedream__3 小时前
ICMR2024 | 当对比学习遇上知识蒸馏:轻量超分模型压缩新框架
人工智能·深度学习·计算机视觉·知识蒸馏·超分辨率重建·对比学习
aneasystone本尊4 小时前
OpenClaw 快速入门:从安装到第一次对话
人工智能