【机器学习】039_合理初始化

一、稳定训练

目标:使梯度值在更合理的范围内

常见方法如下:

· 将乘法变为加法

· ResNet:当层数较多时,会加入一些加法进去

· LSTM:如果时序序列较长时,把一些对时序的乘法做加法

· 归一化

· 梯度归一化:把梯度转化为一个均值0、方差1这样的数,从而避免梯度的数值过大或过小

· 梯度裁剪:如果梯度大于一个阈值,就强行拉回来减到一个范围里

· 合理的权重初始化、选取合理的激活函数

二、合理初始化操作

目标:让每层的方差都为一个常数

· 让每层的输出和梯度都看作"随机变量"

· 让输出和梯度的均值和方差都保持一致,那么就可以在每层的传递之间保持,不会出现问题

权重初始化

目标:将参数和权重初始化在一个合理的区间值里,防止参数变化过大或过小导致出现问题

· 当训练开始时,数值更易出现不稳定的问题

· 随机初始的参数可能离最优解很远,更新幅度较陡,损失函数会很大,从而导致梯度较大

· 最优解附近一般较缓,更新幅度会较小

· 假设不定义初始化方法,框架将使用默认初始化,即采用正态分布初始化权重值

· 这种初始化方法对小型神经网络较为有效,但当网络较深时,这种初始化方法往往表现较差

· Xavier初始化:

某些没有非线性 的全连接层输出(例如,隐藏变量) 的尺度分布:

· 对于某一层 输入 以及其相关权重 ,输出由下式给出:

权重 都是从同一分布中独立抽取的

· 假设该分布具有均值 0 和方差 (不一定是标准正态分布,只需均值方差存在)

· 假设层 的输入也具有均值 0 和方差 ,且独立于 并彼此独立

可以按下列方式计算 的均值与方差:

为了保障 的方差不变化,可设置

现在考虑反向传播过程,我们面临着类似的问题,尽管梯度是从更靠近输出的层传播的。

使用与前向传播相同的推断,我们可以看到:

· 除非 ,否则梯度的方差可能会增大。其中 是该层输出的数量。

· 然而,我们不可能同时满足 这两个条件。

但我们只需满足:

即可达到要求,这便是Xavier初始化的基础。

通常,Xavier初始化从均值为 0,方差 的高斯分布中采样权重。

Xavier初始化表明:

· 对于每一层,输出的方差不受输入数量的影响;

· 任何梯度的方差不受输出数量的影响。

相关推荐
GitCode官方2 分钟前
参会预告 | AtomGit 邀您共赴 TritonNext 2026 技术大会,解锁 AI 系统与编译生态新机遇
人工智能·开源·atomgit
MobiusStack10 分钟前
Cursor团队最新文章解读丨动态上下文发现,重新定义AI记忆
人工智能
Rui_Freely23 分钟前
Vins-Fusion之 相机—IMU在线标定(十一)
人工智能·算法·计算机视觉
沛沛老爹24 分钟前
Web开发者5分钟上手:Agent Skills环境搭建与基础使用实战
java·人工智能·llm·llama·rag·agent skills
小龙在山东27 分钟前
基于 plumbum 跨平台执行Shell脚本
python
DeepFlow 零侵扰全栈可观测34 分钟前
3分钟定位OA系统GC瓶颈:DeepFlow全栈可观测平台实战解析
大数据·运维·人工智能·云原生·性能优化
想用offer打牌1 小时前
一站式讲清Spring AI Alibaba的OverAllState和RunnableConfig
人工智能·架构·github
生成论实验室1 小时前
生成论之基:“阴阳”作为元规则的重构与证成——基于《易经》与《道德经》的古典重诠与现代显象
人工智能·科技·神经网络·算法·架构
CCPC不拿奖不改名1 小时前
python基础:python语言中的函数与模块+面试习题
开发语言·python·面试·职场和发展·蓝桥杯
数据分享者1 小时前
对话对齐反馈数据集:12000+高质量人类-助手多轮对话用于RLHF模型训练与评估-人工智能-大语言模型对齐-人类反馈强化学习-训练符合人类期望的对话模型
人工智能·语言模型·自然语言处理