神经网络入门:从零开始构建你的第一个深度学习模型


✨道路是曲折的,前途是光明的!

📝 专注C/C++、Linux编程与人工智能领域,分享学习笔记!

🌟 感谢各位小伙伴的长期陪伴与支持,欢迎文末添加好友一起交流!


前言

神经网络是深度学习的基石,也是人工智能领域最激动人心的技术之一。本文将带你从零开始,理解神经网络的核心概念,并用代码实现一个简单的神经网络模型。

什么是神经网络?

神经网络是一种受人脑神经元结构启发的机器学习模型。它由相互连接的节点(神经元)组成,通过层层传递和处理信息来完成学习任务。

基本结构

Output Layer
Hidden Layer
Input Layer
输入特征1
输入特征2
输入特征3
神经元1
神经元2
神经元3
神经元4
输出1
输出2

核心概念

1. 神经元

每个神经元接收输入,通过权重和偏置计算,最后通过激活函数产生输出:

复制代码
output = activation(Σ(input × weight) + bias)

2. 激活函数

激活函数引入非线性,使网络能够学习复杂的模式。

激活函数 特点 适用场景
ReLU 计算简单,缓解梯度消失 隐藏层首选
Sigmoid 输出在0-1之间 二分类输出层
Softmax 输出概率分布 多分类输出层

3. 前向传播

前向传播是数据从输入层流向输出层的过程。
输入数据
输入层
隐藏层1
隐藏层2
输出层
预测结果

PyTorch实战代码

1. 定义神经网络

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

# 定义一个简单的全连接神经网络
class SimpleNet(nn.Module):
    def __init__(self, input_size, hidden_size, num_classes):
        super(SimpleNet, self).__init__()
        # 第一层:输入层到隐藏层
        self.layer1 = nn.Linear(input_size, hidden_size)
        self.relu = nn.ReLU()
        # 第二层:隐藏层到输出层
        self.layer2 = nn.Linear(hidden_size, num_classes)

    def forward(self, x):
        out = self.layer1(x)
        out = self.relu(out)
        out = self.layer2(out)
        return out

# 初始化模型
model = SimpleNet(input_size=784, hidden_size=128, num_classes=10)
print(model)

2. 训练循环

python 复制代码
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 训练循环
num_epochs = 10

for epoch in range(num_epochs):
    for batch_idx, (data, targets) in enumerate(train_loader):
        # 前向传播
        outputs = model(data)
        loss = criterion(outputs, targets)

        # 反向传播和优化
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

    print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

训练流程图



开始
初始化模型参数
获取训练数据批次
前向传播计算预测
计算损失
反向传播计算梯度
更新权重参数
是否完成所有epoch?
训练完成

损失函数的作用

损失函数衡量模型预测与真实值的差距:

python 复制代码
# 常用损失函数示例

# 1. 均方误差(回归任务)
mse_loss = nn.MSELoss()

# 2. 交叉熵(分类任务)
cross_entropy = nn.CrossEntropyLoss()

# 3. 二元交叉熵(二分类)
bce_loss = nn.BCELoss()

反向传播与梯度下降

反向传播是训练神经网络的核心算法:
计算损失
计算输出层梯度
计算隐藏层梯度
计算输入层梯度
更新所有权重

完整训练示例

python 复制代码
import torch
import torch.nn as nn
from torch.utils.data import DataLoader, TensorDataset

# 创建示例数据
X = torch.randn(1000, 20)  # 1000个样本,20个特征
y = torch.randint(0, 2, (1000,))  # 二分类标签

# 创建数据加载器
dataset = TensorDataset(X, y)
train_loader = DataLoader(dataset, batch_size=32, shuffle=True)

# 定义模型
class BinaryClassifier(nn.Module):
    def __init__(self):
        super().__init__()
        self.network = nn.Sequential(
            nn.Linear(20, 64),
            nn.ReLU(),
            nn.Dropout(0.2),
            nn.Linear(64, 32),
            nn.ReLU(),
            nn.Linear(32, 1),
            nn.Sigmoid()
        )

    def forward(self, x):
        return self.network(x)

# 训练
model = BinaryClassifier()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
criterion = nn.BCELoss()

for epoch in range(5):
    epoch_loss = 0
    for X_batch, y_batch in train_loader:
        optimizer.zero_grad()
        predictions = model(X_batch).squeeze()
        loss = criterion(predictions, y_batch.float())
        loss.backward()
        optimizer.step()
        epoch_loss += loss.item()
    print(f'Epoch {epoch+1}, Average Loss: {epoch_loss/len(train_loader):.4f}')

总结

通过本文,我们学习了:

  1. 神经网络的基本结构和组成
  2. 前向传播和反向传播的原理
  3. 使用PyTorch构建和训练神经网络

进一步学习方向

  • CNN(卷积神经网络):图像处理领域
  • RNN/LSTM:序列数据处理
  • Transformer:自然语言处理
  • GAN(生成对抗网络):图像生成

神经网络的世界非常广阔,继续探索吧!


参考资料:


✍️ 坚持用 清晰易懂的图解 + 可落地的代码,让每个知识点都 简单直观!

💡 座右铭 :"道路是曲折的,前途是光明的!"

相关推荐
九.九5 小时前
ops-transformer:AI 处理器上的高性能 Transformer 算子库
人工智能·深度学习·transformer
春日见5 小时前
拉取与合并:如何让个人分支既包含你昨天的修改,也包含 develop 最新更新
大数据·人工智能·深度学习·elasticsearch·搜索引擎
恋猫de小郭5 小时前
AI 在提高你工作效率的同时,也一直在增加你的疲惫和焦虑
前端·人工智能·ai编程
deephub6 小时前
Agent Lightning:微软开源的框架无关 Agent 训练方案,LangChain/AutoGen 都能用
人工智能·microsoft·langchain·大语言模型·agent·强化学习
偷吃的耗子6 小时前
【CNN算法理解】:三、AlexNet 训练模块(附代码)
深度学习·算法·cnn
大模型RAG和Agent技术实践6 小时前
从零构建本地AI合同审查系统:架构设计与流式交互实战(完整源代码)
人工智能·交互·智能合同审核
老邋遢6 小时前
第三章-AI知识扫盲看这一篇就够了
人工智能
互联网江湖6 小时前
Seedance2.0炸场:长短视频们“修坝”十年,不如AI放水一天?
人工智能
PythonPioneer6 小时前
在AI技术迅猛发展的今天,传统职业该如何“踏浪前行”?
人工智能
冬奇Lab7 小时前
一天一个开源项目(第20篇):NanoBot - 轻量级AI Agent框架,极简高效的智能体构建工具
人工智能·开源·agent