
✨道路是曲折的,前途是光明的!
📝 专注C/C++、Linux编程与人工智能领域,分享学习笔记!
🌟 感谢各位小伙伴的长期陪伴与支持,欢迎文末添加好友一起交流!

前言
神经网络是深度学习的基石,也是人工智能领域最激动人心的技术之一。本文将带你从零开始,理解神经网络的核心概念,并用代码实现一个简单的神经网络模型。

什么是神经网络?
神经网络是一种受人脑神经元结构启发的机器学习模型。它由相互连接的节点(神经元)组成,通过层层传递和处理信息来完成学习任务。
基本结构
Output Layer
Hidden Layer
Input Layer
输入特征1
输入特征2
输入特征3
神经元1
神经元2
神经元3
神经元4
输出1
输出2
核心概念
1. 神经元
每个神经元接收输入,通过权重和偏置计算,最后通过激活函数产生输出:
output = activation(Σ(input × weight) + bias)
2. 激活函数
激活函数引入非线性,使网络能够学习复杂的模式。
| 激活函数 | 特点 | 适用场景 |
|---|---|---|
| ReLU | 计算简单,缓解梯度消失 | 隐藏层首选 |
| Sigmoid | 输出在0-1之间 | 二分类输出层 |
| Softmax | 输出概率分布 | 多分类输出层 |
3. 前向传播
前向传播是数据从输入层流向输出层的过程。
输入数据
输入层
隐藏层1
隐藏层2
输出层
预测结果
PyTorch实战代码
1. 定义神经网络
python
import torch
import torch.nn as nn
import torch.optim as optim
# 定义一个简单的全连接神经网络
class SimpleNet(nn.Module):
def __init__(self, input_size, hidden_size, num_classes):
super(SimpleNet, self).__init__()
# 第一层:输入层到隐藏层
self.layer1 = nn.Linear(input_size, hidden_size)
self.relu = nn.ReLU()
# 第二层:隐藏层到输出层
self.layer2 = nn.Linear(hidden_size, num_classes)
def forward(self, x):
out = self.layer1(x)
out = self.relu(out)
out = self.layer2(out)
return out
# 初始化模型
model = SimpleNet(input_size=784, hidden_size=128, num_classes=10)
print(model)
2. 训练循环
python
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)
# 训练循环
num_epochs = 10
for epoch in range(num_epochs):
for batch_idx, (data, targets) in enumerate(train_loader):
# 前向传播
outputs = model(data)
loss = criterion(outputs, targets)
# 反向传播和优化
optimizer.zero_grad()
loss.backward()
optimizer.step()
print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')
训练流程图
否
是
开始
初始化模型参数
获取训练数据批次
前向传播计算预测
计算损失
反向传播计算梯度
更新权重参数
是否完成所有epoch?
训练完成
损失函数的作用
损失函数衡量模型预测与真实值的差距:
python
# 常用损失函数示例
# 1. 均方误差(回归任务)
mse_loss = nn.MSELoss()
# 2. 交叉熵(分类任务)
cross_entropy = nn.CrossEntropyLoss()
# 3. 二元交叉熵(二分类)
bce_loss = nn.BCELoss()
反向传播与梯度下降
反向传播是训练神经网络的核心算法:
计算损失
计算输出层梯度
计算隐藏层梯度
计算输入层梯度
更新所有权重
完整训练示例
python
import torch
import torch.nn as nn
from torch.utils.data import DataLoader, TensorDataset
# 创建示例数据
X = torch.randn(1000, 20) # 1000个样本,20个特征
y = torch.randint(0, 2, (1000,)) # 二分类标签
# 创建数据加载器
dataset = TensorDataset(X, y)
train_loader = DataLoader(dataset, batch_size=32, shuffle=True)
# 定义模型
class BinaryClassifier(nn.Module):
def __init__(self):
super().__init__()
self.network = nn.Sequential(
nn.Linear(20, 64),
nn.ReLU(),
nn.Dropout(0.2),
nn.Linear(64, 32),
nn.ReLU(),
nn.Linear(32, 1),
nn.Sigmoid()
)
def forward(self, x):
return self.network(x)
# 训练
model = BinaryClassifier()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
criterion = nn.BCELoss()
for epoch in range(5):
epoch_loss = 0
for X_batch, y_batch in train_loader:
optimizer.zero_grad()
predictions = model(X_batch).squeeze()
loss = criterion(predictions, y_batch.float())
loss.backward()
optimizer.step()
epoch_loss += loss.item()
print(f'Epoch {epoch+1}, Average Loss: {epoch_loss/len(train_loader):.4f}')
总结
通过本文,我们学习了:
- 神经网络的基本结构和组成
- 前向传播和反向传播的原理
- 使用PyTorch构建和训练神经网络
进一步学习方向
- CNN(卷积神经网络):图像处理领域
- RNN/LSTM:序列数据处理
- Transformer:自然语言处理
- GAN(生成对抗网络):图像生成
神经网络的世界非常广阔,继续探索吧!
参考资料:
- PyTorch官方文档
- 《深度学习》- Ian Goodfellow
- CS231n: 卷积神经网络课程
✍️ 坚持用 清晰易懂的图解 + 可落地的代码,让每个知识点都 简单直观!
💡 座右铭 :"道路是曲折的,前途是光明的!"
