VGG
- 原论文地址:https://arxiv.org/abs/1409.1556
VGG
是Visual Geometry Group
(视觉几何组)的缩写,它是一个在计算机视觉领域中非常有影响力的研究团队,主要隶属于牛津大学的工程系和科学系。VGG以其对卷积神经网络(Convolutional Neural Networks, CNNs
)结构的研究而闻名,特别是在ILSVRC
(ImageNet Large Scale Visual Recognition Challenge
)竞赛中取得了显著的成绩。
VGG
网络是VGG
团队提出的一系列深度卷积神经网络模型,其中最著名的是VGG-16
和VGG-19
。这些模型以其简洁的架构和强大的性能而受到广泛关注。VGG
网络的主要特点包括:
(1)使用小尺寸的卷积核(3x3)和最大池化层(2x2)来构建深度网络。
(2)通过堆叠多个小卷积核来模拟大尺寸卷积核的感受野,同时减少参数数量。
(3)在整个网络中保持卷积核尺寸和步长的一致性,使得网络结构更加规整。
(4)使用多个全连接层进行分类任务的输出。
VGG
网络的性能在2014年当时是非常出色的,成为了计算机视觉任务中的基准模型之一。虽然现在有一些更先进的网络架构(如ResNet
、DenseNet
等)已经超越了VGG
在某些方面的性能,但VGG
仍然是一个值得学习和了解的经典模型。
感受野
(1)感受野(Receptive Field
)是卷积神经网络(Convolutional Neural Networks, CNNs
)中的一个重要概念,它指的是网络内部的不同位置的神经元对原图像的感受范围的大小。在卷积神经网络中,每个神经元都只与输入数据的一个局部区域相连,这个局部区域就是该神经元的感受野。随着网络层次的加深,每个神经元对于输入数据的感受野会逐渐扩大,从而能够提取更加抽象和全局的特征。
(2) 感受野的大小可以通过计算得到,它与卷积核的大小、步长(stride
)和填充(padding
)等超参数有关。在一般的卷积神经网络中,感受野的大小会随着卷积层的加深而指数级增长。因此,深层卷积神经网络中的神经元可以具有非常大的感受野,能够覆盖输入图像的大部分区域甚至整个图像。
VGG网络结构
- 论文中介绍,从A-E,分别有11、11、13、16、16、19层,用的比较多的是
VGG-16
模型和VGG-19
模型。 VGG-16
模型包括13层卷积层和3层全连接层。
- 视频中截取的模型结构图
- 根据论文画出网络模型图,13个卷积层和3个全连接层。
网络模型复现代码
python
# 定义训练网络 VGG-16
import torch
from torch import nn
from torch.nn import functional as F
from torchinfo import summary
class VGG16(nn.Module):
def __init__(self):
super().__init__()
# 定义网络结构
# conv1
self.conv1 = nn.Conv2d(3, 64, 3, padding=1)
self.conv2 = nn.Conv2d(64, 64, 3, padding=1)
self.pool1 = nn.MaxPool2d(2)
# conv2
self.conv3 = nn.Conv2d(64, 128, 3, padding=1)
self.conv4 = nn.Conv2d(128, 128, 3, padding=1)
self.pool2 = nn.MaxPool2d(2)
# conv3
self.conv5 = nn.Conv2d(128, 256, 3, padding=1)
self.conv6 = nn.Conv2d(256, 256, 3, padding=1)
self.conv7 = nn.Conv2d(256, 256, 3, padding=1)
self.pool3 = nn.MaxPool2d(2)
# conv4
self.conv8 = nn.Conv2d(256, 512, 3, padding=1)
self.conv9 = nn.Conv2d(512, 512, 3, padding=1)
self.conv10 = nn.Conv2d(512, 512, 3, padding=1)
self.pool4 = nn.MaxPool2d(2)
# conv5
self.conv11 = nn.Conv2d(512, 512, 3, padding=1)
self.conv12 = nn.Conv2d(512, 512, 3, padding=1)
self.conv13 = nn.Conv2d(512, 512, 3, padding=1)
self.pool5 = nn.MaxPool2d(2)
# fc1
self.lr1 = nn.Linear(7 * 7 * 512, 4096)
# fc2
self.lr2 = nn.Linear(4096, 4096)
# fc3
self.lr3 = nn.Linear(4096, 1000)
def forward(self, x):
x = F.relu(self.conv1(x))
x = self.pool1(F.relu(self.conv2(x)))
x = F.relu(self.conv3(x))
x = self.pool2(F.relu(self.conv4(x)))
x = F.relu(self.conv5(x))
x = F.relu(self.conv6(x))
x = self.pool3(F.relu(self.conv7(x)))
x = F.relu(self.conv8(x))
x = F.relu(self.conv9(x))
x = self.pool4(F.relu(self.conv10(x)))
x = F.relu(self.conv11(x))
x = F.relu(self.conv12(x))
x = self.pool5(F.relu(self.conv13(x)))
x = x.view(-1, 7 * 7 * 512) # 铺平
x = F.relu(self.lr1(F.dropout(x, p=0.5)))
x = F.relu(self.lr2(F.dropout(x, p=0.5)))
output = F.softmax(self.lr3(x), dim=1)
vgg = VGG16()
# 网络结构可视化
summary(vgg, input_size=(10, 3, 224, 224))
Pycharm
运行输出结果,可以可视化VGG
的网络结构和运行信息。
- 代码仓库:deeplearning
网络结构可视化torchinfo
- 介绍
torchinfo
是一个用于PyTorch
模型信息打印的Python包。它提供了一种简单而快速的方法来打印PyTorch
模型的参数数量、计算图和内存使用情况等有用的信息,从而帮助深度学习开发人员更好地理解和优化他们的模型。具体来说,torchinfo
可以用于打印网络的每一层尺寸等信息,使得开发人员能够更清晰地了解模型的结构和参数。
例如,使用torchinfo
库的summary
函数,可以轻松地打印出模型的结构信息,包括每一层的名称、类型、输出形状和参数数量等。这对于调试模型、优化模型结构以及进行模型剪枝等操作都非常有帮助。
总的来说,torchinfo
是一个非常实用的工具,可以帮助PyTorch
开发人员更好地理解和优化他们的模型。
------【文心一言】 - 安装:
conda install -c conda-forge torchinfo
(或pip install torchinfo
)