浅谈DNN(深度神经网络)算法原理

深度神经网络(Deep Neural Network, DNN)是一种基于人工神经网络的机器学习模型,它由多个隐藏层组成,能够自动从大量数据中学习复杂的模式和特征。DNN 的基本结构包括输入层、多个隐藏层和输出层。

1.神经元模型

神经元是 DNN 的基本计算单元。对于一个输入向量 ,神经元的输出 可以通过以下公式计算:

其中, 是输入 对应的权重, 是偏置, 是激活函数。激活函数的作用是引入非线性因素,使得 DNN 能够学习到复杂的非线性关系。

2.前向传播

前向传播是指输入数据从输入层经过多个隐藏层,最终传递到输出层的过程。在每一层中,神经元根据上述公式计算输出,并将输出作为下一层的输入。假设第 层有 个神经元,第 层有 个神经元,那么第 层第 个神经元的输入 和输出 可以表示为:

其中, 是第 层第 个神经元到第 层第 个神经元的权重, 是第 层第 个神经元的偏置。

3. 损失函数

损失函数用于衡量模型的预测输出与真实标签之间的差异。常见的损失函数包括均方误差(Mean Squared Error, MSE)、交叉熵损失(Cross Entropy Loss)等。以均方误差为例,对于一个样本 ,模型的预测输出为 ,则损失函数 可以表示为:

4. 反向传播

反向传播是一种用于计算损失函数关于模型参数(权重和偏置)的梯度的算法。通过链式法则,从输出层开始,逐层计算梯度,并根据梯度更新模型参数。参数更新的公式通常采用梯度下降法:

其中, 是学习率,控制参数更新的步长。

接下来,我们来用 Python 和 PyTorch 库实现简单 DNN 的示例,用于解决手写数字识别问题(MNIST 数据集)。

import torch

import torch.nn as nn

import torch.optim as optim

from torchvision import datasets, transforms

from torch.utils.data import DataLoader

定义超参数

batch_size = 64

learning_rate = 0.001

epochs = 5

数据预处理

transform = transforms.Compose([

transforms.ToTensor(),

transforms.Normalize((0.1307,), (0.3081,))

])

加载MNIST数据集

train_dataset = datasets.MNIST(root='./data', train=True,

download=True, transform=transform)

test_dataset = datasets.MNIST(root='./data', train=False,

download=True, transform=transform)

train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)

test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

定义DNN模型

class DNN(nn.Module):

def init(self):

super(DNN, self).init()

self.fc1 = nn.Linear(28 * 28, 128)

self.fc2 = nn.Linear(128, 64)

self.fc3 = nn.Linear(64, 10)

self.relu = nn.ReLU()

def forward(self, x):

x = x.view(-1, 28 * 28)

x = self.relu(self.fc1(x))

x = self.relu(self.fc2(x))

x = self.fc3(x)

return x

model = DNN()

定义损失函数和优化器

criterion = nn.CrossEntropyLoss()

optimizer = optim.Adam(model.parameters(), lr=learning_rate)

训练模型

for epoch in range(epochs):

model.train()

for batch_idx, (data, target) in enumerate(train_loader):

optimizer.zero_grad()

output = model(data)

loss = criterion(output, target)

loss.backward()

optimizer.step()

if batch_idx % 100 == 0:

print(f'Train Epoch: {epoch} [{batch_idx * len(data)}/{len(train_loader.dataset)} '

f'({100. * batch_idx / len(train_loader):.0f}%)]\tLoss: {loss.item():.6f}')

测试模型

model.eval()

test_loss = 0

correct = 0

with torch.no_grad():

for data, target in test_loader:

output = model(data)

test_loss += criterion(output, target).item()

pred = output.argmax(dim=1, keepdim=True)

correct += pred.eq(target.view_as(pred)).sum().item()

test_loss /= len(test_loader.dataset)

print(f'\nTest set: Average loss: {test_loss:.4f}, Accuracy: {correct}/{len(test_loader.dataset)} '

f'({100. * correct / len(test_loader.dataset):.0f}%)\n')

代码解释

  1. 数据预处理 :使用 transforms 对 MNIST 数据集进行预处理,包括将图像转换为张量和归一化。

  2. 模型定义:定义一个包含三个全连接层的 DNN 模型,使用 ReLU 作为激活函数。

  3. 损失函数和优化器:使用交叉熵损失函数和 Adam 优化器。

  4. 训练模型:通过前向传播计算损失,然后使用反向传播更新模型参数。

  5. 测试模型:在测试集上评估模型的性能,计算平均损失和准确率。

相关推荐
查理零世5 分钟前
【蓝桥杯集训·每日一题2025】 AcWing 6134. 哞叫时间II python
python·算法·蓝桥杯
仟濹5 分钟前
【二分搜索 C/C++】洛谷 P1873 EKO / 砍树
c语言·c++·算法
紫雾凌寒14 分钟前
解锁机器学习核心算法|神经网络:AI 领域的 “超级引擎”
人工智能·python·神经网络·算法·机器学习·卷积神经网络
zhengyawen66625 分钟前
深度学习之图像分类(一)
人工智能·深度学习·分类
京东零售技术38 分钟前
AI Agent实战:打造京东广告主的超级助手 | 京东零售技术实践
算法
MiyamiKK572 小时前
leetcode_位运算 190.颠倒二进制位
python·算法·leetcode
C137的本贾尼2 小时前
解决 LeetCode 串联所有单词的子串问题
算法·leetcode·c#
不爱学英文的码字机器2 小时前
深度学习的力量:精准肿瘤检测从此不再遥远
人工智能·深度学习
tRNA做科研2 小时前
Pytorch深度学习教程_3_初识pytorch
人工智能·pytorch·深度学习
青橘MATLAB学习2 小时前
时间序列预测实战:指数平滑法详解与MATLAB实现
人工智能·算法·机器学习·matlab