YOLOv1 模型构建与训练

相关文章

项目地址:YOLOv1 VOC 2007

笔者训练的权重地址:阿里云盘分享

10 秒文章速览

本文主要讲解了 YOLOv1 的模型构建、损失函数、模型训练

模型构建

对于模型的构建,我们不采用论文中的方案,而是使用 ResNet 模型。至于为什么,在笔者的观测下,ResNet练的训练速度明显更快

YOLOv1 模型

但在这里笔者还是贴出论文中的模型,向前辈致敬🫡

python 复制代码
# 根据原论文构建的模型
def get_YOLOv1():
    model = keras.Sequential([
        keras.layers.Conv2D(64, (7, 7), 2, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.MaxPool2D((2, 2), 2),

        keras.layers.Conv2D(192, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.MaxPool2D((2, 2), 2),

        keras.layers.Conv2D(128, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(256, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(256, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(512, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.MaxPool2D((2, 2), 2),

        keras.layers.Conv2D(256, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(512, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(256, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(512, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(256, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(512, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(256, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(512, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(512, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(1024, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.MaxPool2D((2, 2), 2),

        keras.layers.Conv2D(512, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(1024, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(512, (1, 1), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(1024, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(1024, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(1024, (3, 3), 2, 'same'),
        keras.layers.LeakyReLU(0.1),

        keras.layers.Conv2D(1024, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Conv2D(1024, (3, 3), 1, 'same'),
        keras.layers.LeakyReLU(0.1),

        keras.layers.Flatten(),
        keras.layers.Dense(4096),
        keras.layers.LeakyReLU(0.1),
        keras.layers.Dropout(rate=0.5),
        keras.layers.Dense(1470),
        keras.layers.Reshape((7, 7, 30)),
        keras.layers.Activation('sigmoid')
    ])
    model.build(input_shape=(None, 224,224, 3))

    return model

ResNet50V2 模型

使用 ResNet 作为模型,还有一个原因是 TensorFlow 提供的模型可以加载 ImageNet 数据集的训练权重

在全连接部分,我们参考论文中的构建方式,只不过将 Flatten 层改为了 GlobalAvgPool2D 层

python 复制代码
# 以 ResNet50V2 作为模型主干
ResNet = keras.applications.ResNet50V2(input_shape=(448, 448, 3), include_top=False)

# 构建全连接层部分
x = ResNet.output
x = keras.layers.GlobalAvgPool2D()(x)
x = keras.layers.Dense(4096)(x)
x = keras.layers.LeakyReLU(0.1)(x)
x = keras.layers.Dropout(rate=0.5)(x)
x = keras.layers.Dense(1470)(x)
x = keras.layers.Reshape((7, 7, 30))(x)
x = keras.layers.Activation('sigmoid')(x)

model = keras.Model(ResNet.input, x)

模型训练

对于模型的训练,同样参考了论文中的方案(有意思的是笔者在训练中也使用了 TensorFlow 提供的分段衰退的方法,但效果似乎不如下面这种简单粗暴的方法)

python 复制代码
optimizer = keras.optimizers.SGD(learning_rate=0.0055, momentum=0.9, weight_decay=0.0005)
model.compile(optimizer=optimizer, loss=get_loss)

model.fit(train_set, epochs=1)
model.optimizer.learning_rate.assign(0.01)
model.fit(train_set, epochs=75)
model.optimizer.learning_rate.assign(0.001)
model.fit(train_set, epochs=30)
model.optimizer.learning_rate.assign(0.0001)
model.fit(train_set, epochs=30)

如果在不加载预训练权重的情况下,这里也给出笔者的训练方案

使用 Adam 优化器,weight_decay 设置为0.0005,训练步骤如下

  • 以0.0003为学习率,训练75个周期
  • 以0.0001为学习率,训练50个周期
  • 以0.00005为学习率,训练25个周期
  • 以0.00003为学习率,训练25个周期
相关推荐
板面华仔10 分钟前
机器学习入门(三)——决策树(Decision Tree)
人工智能·决策树·机器学习
GAOJ_K23 分钟前
滚珠花键的无预压、间隙调整与过盈配合“场景适配型”
人工智能·科技·机器人·自动化·制造
ai_xiaogui27 分钟前
【开源探索】Panelai:重新定义AI服务器管理面板,助力团队私有化算力部署与模型运维
人工智能·开源·私有化部署·docker容器化·panelai·ai服务器管理面板·comfyui集群管理
源于花海32 分钟前
迁移学习的前沿知识(AI与人类经验结合、传递式、终身、在线、强化、可解释性等)
人工智能·机器学习·迁移学习·迁移学习前沿
机 _ 长35 分钟前
YOLO26 改进 | 基于特征蒸馏 | 知识蒸馏 (Response & Feature-based Distillation)
python·深度学习·机器学习
king of code porter1 小时前
百宝箱企业版搭建智能体应用-平台概述
人工智能·大模型·智能体
愚公搬代码1 小时前
【愚公系列】《AI短视频创作一本通》004-AI短视频的准备工作(创作AI短视频的基本流程)
人工智能·音视频
物联网软硬件开发-轨物科技1 小时前
【轨物洞见】告别“被动维修”!预测性运维如何重塑老旧电站的资产价值?
运维·人工智能
电商API_180079052471 小时前
第三方淘宝商品详情 API 全维度调用指南:从技术对接到生产落地
java·大数据·前端·数据库·人工智能·网络爬虫
梁辰兴1 小时前
百亿美元赌注变数,AI军备竞赛迎来转折点?
人工智能·ai·大模型·openai·英伟达·梁辰兴·ai军备竞赛