浅谈DNN(深度神经网络)算法原理

深度神经网络(Deep Neural Network, DNN)是一种基于人工神经网络的机器学习模型,它由多个隐藏层组成,能够自动从大量数据中学习复杂的模式和特征。DNN 的基本结构包括输入层、多个隐藏层和输出层。

1.神经元模型

神经元是 DNN 的基本计算单元。对于一个输入向量 ,神经元的输出 可以通过以下公式计算:

其中, 是输入 对应的权重, 是偏置, 是激活函数。激活函数的作用是引入非线性因素,使得 DNN 能够学习到复杂的非线性关系。

2.前向传播

前向传播是指输入数据从输入层经过多个隐藏层,最终传递到输出层的过程。在每一层中,神经元根据上述公式计算输出,并将输出作为下一层的输入。假设第 层有 个神经元,第 层有 个神经元,那么第 层第 个神经元的输入 和输出 可以表示为:

其中, 是第 层第 个神经元到第 层第 个神经元的权重, 是第 层第 个神经元的偏置。

3. 损失函数

损失函数用于衡量模型的预测输出与真实标签之间的差异。常见的损失函数包括均方误差(Mean Squared Error, MSE)、交叉熵损失(Cross Entropy Loss)等。以均方误差为例,对于一个样本 ,模型的预测输出为 ,则损失函数 可以表示为:

4. 反向传播

反向传播是一种用于计算损失函数关于模型参数(权重和偏置)的梯度的算法。通过链式法则,从输出层开始,逐层计算梯度,并根据梯度更新模型参数。参数更新的公式通常采用梯度下降法:

其中, 是学习率,控制参数更新的步长。

接下来,我们来用 Python 和 PyTorch 库实现简单 DNN 的示例,用于解决手写数字识别问题(MNIST 数据集)。

import torch

import torch.nn as nn

import torch.optim as optim

from torchvision import datasets, transforms

from torch.utils.data import DataLoader

定义超参数

batch_size = 64

learning_rate = 0.001

epochs = 5

数据预处理

transform = transforms.Compose([

transforms.ToTensor(),

transforms.Normalize((0.1307,), (0.3081,))

])

加载MNIST数据集

train_dataset = datasets.MNIST(root='./data', train=True,

download=True, transform=transform)

test_dataset = datasets.MNIST(root='./data', train=False,

download=True, transform=transform)

train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)

test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

定义DNN模型

class DNN(nn.Module):

def init(self):

super(DNN, self).init()

self.fc1 = nn.Linear(28 * 28, 128)

self.fc2 = nn.Linear(128, 64)

self.fc3 = nn.Linear(64, 10)

self.relu = nn.ReLU()

def forward(self, x):

x = x.view(-1, 28 * 28)

x = self.relu(self.fc1(x))

x = self.relu(self.fc2(x))

x = self.fc3(x)

return x

model = DNN()

定义损失函数和优化器

criterion = nn.CrossEntropyLoss()

optimizer = optim.Adam(model.parameters(), lr=learning_rate)

训练模型

for epoch in range(epochs):

model.train()

for batch_idx, (data, target) in enumerate(train_loader):

optimizer.zero_grad()

output = model(data)

loss = criterion(output, target)

loss.backward()

optimizer.step()

if batch_idx % 100 == 0:

print(f'Train Epoch: {epoch} [{batch_idx * len(data)}/{len(train_loader.dataset)} '

f'({100. * batch_idx / len(train_loader):.0f}%)]\tLoss: {loss.item():.6f}')

测试模型

model.eval()

test_loss = 0

correct = 0

with torch.no_grad():

for data, target in test_loader:

output = model(data)

test_loss += criterion(output, target).item()

pred = output.argmax(dim=1, keepdim=True)

correct += pred.eq(target.view_as(pred)).sum().item()

test_loss /= len(test_loader.dataset)

print(f'\nTest set: Average loss: {test_loss:.4f}, Accuracy: {correct}/{len(test_loader.dataset)} '

f'({100. * correct / len(test_loader.dataset):.0f}%)\n')

代码解释

  1. 数据预处理 :使用 transforms 对 MNIST 数据集进行预处理,包括将图像转换为张量和归一化。

  2. 模型定义:定义一个包含三个全连接层的 DNN 模型,使用 ReLU 作为激活函数。

  3. 损失函数和优化器:使用交叉熵损失函数和 Adam 优化器。

  4. 训练模型:通过前向传播计算损失,然后使用反向传播更新模型参数。

  5. 测试模型:在测试集上评估模型的性能,计算平均损失和准确率。

相关推荐
Narrastory10 小时前
明日香 - Pytorch 快速入门保姆级教程(一)
人工智能·pytorch·深度学习
Narrastory10 小时前
明日香 - Pytorch 快速入门保姆级教程(二)
人工智能·pytorch·深度学习
AI软著研究员10 小时前
程序员必看:软著不是“面子工程”,是代码的“法律保险”
算法
FunnySaltyFish10 小时前
什么?Compose 把 GapBuffer 换成了 LinkBuffer?
算法·kotlin·android jetpack
颜酱11 小时前
理解二叉树最近公共祖先(LCA):从基础到变种解析
javascript·后端·算法
地平线开发者1 天前
SparseDrive 模型导出与性能优化实战
算法·自动驾驶
董董灿是个攻城狮1 天前
大模型连载2:初步认识 tokenizer 的过程
算法
地平线开发者1 天前
地平线 VP 接口工程实践(一):hbVPRoiResize 接口功能、使用约束与典型问题总结
算法·自动驾驶
罗西的思考1 天前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
HXhlx1 天前
CART决策树基本原理
算法·机器学习