技术栈

学习率优化算法

All The Way North-
1 个月前
pytorch·深度学习·学习率优化算法·按指数学习率衰减
PyTorch ExponentialLR:按指数学习率衰减原理、API、参数详解、实战📉 “按指数学习率衰减”(Exponential Learning Rate Decay)为什么叫 “指数”,详情在后面
All The Way North-
1 个月前
pytorch·深度学习·学习率优化算法·multisteplr算法·指定间隔学习率衰减
PyTorch MultiStepLR:指定间隔学习率衰减的原理、API、参数详解、实战与 MultiStepLR指定间隔学习率衰减 类似的 StepLR等间隔学习率衰减,链接如下:PyTorch StepLR:等间隔学习率衰减的原理与实战
All The Way North-
1 个月前
pytorch·深度学习·steplr学习率优化算法·学习率优化算法
PyTorch StepLR:等间隔学习率衰减的原理与实战“等间隔学习率衰减”(Step Decay 或 Fixed Step Decay)是深度学习中一种常用的学习率调度(learning rate scheduling)策略,属于分段常数衰减(Piecewise Constant Decay)的一种形式。
我是有底线的