Awesome-Backbones-main——alexnet模型分析

AlexNet作为骨干网络相对较老,可能在复杂数据集上的表现不如一些最新的深度网络结构,如ResNet、EfficientNet等,学习率调整策略中采用了阶梯式学习率更新器,可能并不总是适合所有数据集和模型,需要根据具体情况调整学习率策略。

模型参数:

  1. Backbone(骨干网络):

    • 类型:AlexNet
    • 输出类别数:4
  2. Neck:

    • 在配置中未指定,为None
  3. Head(头部):

    • 类型:ClsHead
    • 损失函数:
      • 类型:CrossEntropyLoss
      • 损失权重:1.0
  4. 数据处理:

    • 图像归一化参数:
      • 均值:[123.675, 116.28, 103.53]
      • 标准差:[58.395, 57.12, 57.375]
      • 是否转为RGB格式:True
  5. 训练参数:

    • 批量大小:8
    • 训练数据加载器的工作线程数:4
    • 是否使用预训练权重:False
    • 是否冻结特定层:False
    • 要冻结的层:('backbone',)
    • 训练周期数:100
  6. 测试参数:

    • 检查点路径:''
    • 评估指标:准确率、精确率、召回率、F1分数、混淆矩阵
    • 评估指标选项:
      • topk:(1, 2)
      • thrs:None
      • 平均模式:'none'
  7. 优化器参数:

    • 类型:SGD
    • 学习率:0.001
    • 动量:0.9
    • 权重衰减:1e-4
  8. 学习率调整配置:

    • 类型:StepLrUpdater
    • 调整步数:每15个周期调整一次学习率

图1:

让batch-size缩小一倍:

图2:

图二数据损失对比图一更加平滑,且下降梯度更大,速度更快,下降过程中方向调整更为敏感。

但在拟合过程中ACC全局波动更大

相关推荐
梓羽玩Python2 分钟前
一夜刷屏AI圈!Manus:这不是聊天机器人,是你的“AI打工仔”!
人工智能
Gene_INNOCENT3 分钟前
大型语言模型训练的三个阶段:Pre-Train、Instruction Fine-tuning、RLHF (PPO / DPO / GRPO)
人工智能·深度学习·语言模型
游戏智眼4 分钟前
中国团队发布通用型AI Agent产品Manus;GPT-4.5正式面向Plus用户推出;阿里发布并开源推理模型通义千问QwQ-32B...|游戏智眼日报
人工智能·游戏·游戏引擎·aigc
挣扎与觉醒中的技术人5 分钟前
如何优化FFmpeg拉流性能及避坑指南
人工智能·深度学习·性能优化·ffmpeg·aigc·ai编程
watersink9 分钟前
Dify框架下的基于RAG流程的政务检索平台
人工智能·深度学习·机器学习
脑极体12 分钟前
在MWC2025,读懂华为如何以行践言
大数据·人工智能·华为
DeepBI14 分钟前
AI+大数据:DeepBI重构竞品分析新思路
人工智能
KoiC16 分钟前
内网环境部署Deepseek+Dify,构建企业私有化AI应用
linux·人工智能·ubuntu·docker·大模型·ai应用·deepseek
不去幼儿园27 分钟前
【启发式算法】Dijkstra算法详细介绍(Python)
人工智能·python·算法·机器学习·启发式算法·图搜索算法
云卓SKYDROID37 分钟前
无人机投屏技术解码过程详解!
人工智能·5g·音视频·无人机·科普·高科技·云卓科技