【一起深度学习-----VGG】

VGG

原理图:

为啥要使用VGG块呢?

对于AlexNet网络来说,虽然十分高效了,但是它并没有提供一个通用的模板,方便后续的研究。

故采用了模块化的思想,方便重复使用。

其实对比于AlexNet神经网络来说,VGG网络也只是保留了后边的全连接层,改变前边的卷积层部分,而卷积层部分可视为由一个个不同的卷积层组成的,可以循环添加。所以需要定义一个VGG块。如下:

python 复制代码
import time

import torch
from torch import nn
from d2l import torch as d2l

#vgg块,模块化思想,可用于快速构建深层的VGG网络
def vgg_block(num_convs,in_channels,out_channels):
    # num_convs:卷积层的数量,in_channels:输入通道,out_channels:输出通道
    layers = []
    # 下划线_表示占位符,因为不需要用到
    for _ in range(num_convs):
        layers.append(nn.Conv2d(in_channels,out_channels,kernel_size=3,padding=1))
        layers.append(nn.ReLU())
        in_channels = out_channels   #将输出通道 赋值给 输入通道,是为了确保在每次添加卷积层时,输入通道数等于上一层的输出通道数
    layers.append(nn.MaxPool2d(kernel_size=2,stride=2))
    #  *layers,称为 "解包",就是说,把laerys列表中的所有层(每一个元素)传递给Sequential
    # 对于元组和列表来说,用 * 来解包。
    # 对于字典来说,用 ** 来解包
    return nn.Sequential(*layers)

设置卷积层中的架构。

python 复制代码
conv_arch = (
    #(卷积层数,输出通道)
    (1,64),(1,128),(2,256),(2,512),(2,512),
)

定义生成VGG神经网络:

python 复制代码
def vgg(conv_arch):
    conv_blks = []
    in_channels = 1 #本案例中使用的是fashion_mninst 属于灰度图
    for (num_convs,out_channels) in conv_arch:
        conv_blks.append(vgg_block(num_convs,in_channels,out_channels)) #循环添加每一个vgg块
        in_channels = out_channels
    return nn.Sequential(
        *conv_blks, #将所有的vgg块解包,形成vgg网络的前部,
        nn.Flatten(),
        nn.Linear(out_channels * 7 * 7, 4096), nn.ReLU(), nn.Dropout(0.5),
        nn.Linear(4096, 4096), nn.ReLU(), nn.Dropout(0.5),
        nn.Linear(4096, 10))

对于全连接层为啥是 out_channels * 7 * 7 呢?观看下图计算过程(草稿字丑)

由于VGG神经网络的计算过大(相比于AlexNet网络来说),将其通道数给调小,实现如下:

python 复制代码
ratio = 4
# conv_arch :(卷积层数,通道数)
small_conv_arch = [(pair[0],pair[1] // ratio) for pair in conv_arch]
net = vgg(small_conv_arch)

终于可以开始训练了!

python 复制代码
lr, num_epochs, batch_size = 0.05, 10, 128
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)
time_start = time.time()
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
time_stop = time.time()
print(time_stop-time_start)

差点把电脑干报废,结果如下:

相关推荐
Elastic 中国社区官方博客16 分钟前
使用 Elasticsearch 管理 agentic 记忆
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
升职佳兴17 分钟前
从 0 到 1:我做了一个提升 AI 对话效率的浏览器插件(架构+实现+发布)
人工智能·架构
linmoo198629 分钟前
Langchain4j 系列之二十二 - Embedding Models
人工智能·langchain·embedding·嵌入模型·langchain4j
三不原则31 分钟前
实战:基于 GitOps 实现 AI 应用的自动化部署与发布
运维·人工智能·自动化
沈浩(种子思维作者)39 分钟前
什么才叫量子物理学?什么是真正量子计算?
人工智能·python·flask·量子计算
张彦峰ZYF39 分钟前
AI 编码工具全景分析与选型决策指南——从「代码补全」到「工程级智能体」的范式跃迁
人工智能·ai 编码工具·选型决策·代码补全·工程级智能体·ai 尚不等同于工程自治
Coder_Boy_1 小时前
基于SpringAI的在线考试系统-DDD(领域驱动设计)核心概念及落地架构全总结(含事件驱动协同逻辑)
java·人工智能·spring boot·微服务·架构·事件驱动·领域驱动
敏叔V5871 小时前
CAMEL-AI框架揭秘:如何通过角色扮演激发大模型复杂推理与规划能力
人工智能
悟纤1 小时前
Suno 摇滚歌曲创作提示词全解析 | Suno高级篇 | 第21篇
人工智能·suno·suno ai·suno api·ai music
乙真仙人1 小时前
Claude Skills 的本质
人工智能·大模型·skills