深度学习-全连接神经网络-训练过程-模型正则与超参数调优- [北邮鲁鹏]

目录标题

神经网络中的超参数

超参数

  • 网络结构:隐层神经元个数,网络层数,非线性单元选择等
  • 优化相关:学习率、dorpout比率、正则项强度等

学习率

学习率过大,训练过程无法收敛

学习率偏大,在最小值附近震荡,达不到最优

学习率太小,收敛时间较长

学习率适中,收敛快、结果好

超参数优化方法

网格搜索法

  1. 每个超参数分别取几个值,组合这些超参数值,形成多组超参数;
  2. 在验证集上评估每组超参数的模型性能;
  3. 选择性能最优的模型所采用的那组值作为最终的超参数的值。


缺点:横轴3个测试值*纵轴3个测试值=9组实验,将注意力放在了不重要的参数δ

随机搜索法

  1. 参数空间内随机取点,每个点对应一组超参数;
  2. 在验证集上评估每组超参数的模型性能;
  3. 选择性能最优的模型所采用的那组值作为最终的超参数的值。

    优点:横轴9个测试值&纵轴9个测试值=9组实验

超参数搜索策略

粗搜索

利用随机法在较大范围里采样超参数,训练一个周期,依据验证集正确率缩小超参数范围

精搜索

利用随机法在前述缩小的范围内采样超参数,运行模型五到十个周期,选择验证集上精度最高的那组超参数

超参数的标尺空间

例:假设最优值在0.0001到1之间,如果在0-1之间采样,90%会在0.1-1之间。

最优的值在[0.0001,1]之间,我们该如何采样?

建议:对于学习率、正则项强度这类超参数,在对数空间上进行随机采样更合适!
在1~0的量级范围内,差别不大,不敏感,所以一般在log对数空间上进行随机采样。

在log空间上,0.0001-0.001-0.01-0.1-1之间的间隔是等距的

相关推荐
正在走向自律7 分钟前
第二章-AIGC入门-AIGC工具全解析:技术控的效率神器,DeepSeek国产大模型的骄傲(8/36)
人工智能·chatgpt·aigc·可灵·deepseek·即梦·阿里通义千问
轩轩分享AI7 分钟前
DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评
人工智能·ai·ai写作·小说写作·小说·小说干货
Aevget25 分钟前
基于嵌入向量的智能检索!HOOPS AI 解锁 CAD 零件相似性搜索新方式
人工智能·hoops·cad·hoops ai·cad数据格式
nhc08830 分钟前
贵阳纳海川·花卉游戏行业解决方案
人工智能·游戏·微信小程序·软件开发·小程序开发
QC777LX35 分钟前
赋能智慧出行:传统旅游顾问进阶AI行程规划师的系统化培训与职业认证
人工智能·旅游
碳基硅坊1 小时前
在昇腾 910B2 上部署 Qwen3.5-35B-A3B
人工智能
冬奇Lab1 小时前
一天一个开源项目(第68篇):DeerFlow - 字节跳动出品的深度研究与超级智能体框架
人工智能·开源·资讯
NineData2 小时前
NineData V5.0 产品发布会:让 AI 成为数据管理的驱动力,4月16日!
数据库·人工智能·ai编程
罗西的思考2 小时前
【OpenClaw】通过 Nanobot 源码学习架构---(5)Context
人工智能·算法·机器学习
2301_764441332 小时前
claw-code:基于Claude Code架构的clean-room重写开源项目
人工智能·架构·开源