梯度下降法
目的
梯度下降法(Gradient Descent)是一个算法,但不是像多元线性回归那样是一个具体做回归任务的算法,而是一个非常通用的优化算法来帮助一些机器学习算法求解出最优解的,所谓的通用就是很多机器学习算法都是用它,甚至深度学习也是用它来求解最优解。所有优化算法的目的都是期望以最快的速度把模型参数θ求解出来,梯度下降法就是一种经典常用的优化算法。
梯度下降法的思想
梯度下降法的基本思想可以类比为一个下山的过程,如下图所示函数看似为一片山林,红色的是山林的高点,蓝色的为山林的低点,蓝色的颜色越深,地理位置越低,则图中有一个低点,一个最低点。
梯度下降法的公式
其中W~j~ 是W向量中的一个元素, η为学习率。学习率一般是整数,学习率一般都是正数,那么在山左侧梯度是负的,那么这个负号就会把 W 往大了调,如果在山右侧梯度就是正的,那么负号就会把 W 往小了调。每次 W~j~ 调整的幅度就是η*gradient,就是横轴上移动的距离。
学习率设置技巧
根据我们上面讲的梯度下降法公式,我们知道η是学习率,设置大的学习率 W~j~ 每次调
整的幅度就大,设置小的学习率 W~j~ 每次调整的幅度就小,然而如果步子迈的太大也会有问
题其实,俗话说步子大了容易扯着蛋,可能一下子迈到山另一头去了,然后一步又迈回来了,
使得来来回回震荡。步子太小呢就一步步往前挪,也会使得整体迭代次数增加。
梯度下降法的流程
1 .初始化参数W~j~,
-
求梯度函数
-
判断是否收敛,如果收敛跳出迭代,否则继续循环。
三种常用的梯度下降法
基于线性回归的损失函数求导得到导函数
然后将导数应用在如下的梯度下降公式中
假设所有样本数为N.该梯度计算基于线性回归损失函数得到。
m=N 全量梯度下降;
m=1 随机梯度下降;
1<m<N 批量梯度下降。
梯度下降法挑战
- 选择一个合理的学习速率很难。如果学习速率过小,则会导致收敛速度很慢。如果学习速率过大,那么其会阻碍收敛,即在极值点附近会振荡。
- 学习速率调整(又称学习速率调度,Learning rate schedules 试图在每次更新过程中,改变学习速率,如退火。一般使用某种事先设定的策略或者在每次迭代中衰减一个较小的阈值。无论哪种调整方法,都需要事先进行固定设置,这边便无法自适应每次学习的数据集特点。
- 模型所有的参数每次更新都是使用相同的学习速率。如果数据特征是稀疏的或者每个特征有着不同的取值统计特征与空间,那么便不能在每次更新中每个参数使用相同的学习速率,那些很少出现的特征应该使用一个相对较大的学习速率。
- 对于非凸目标函数,容易陷入那些次优的局部极值点中,如在神经网路中。那么如何避免呢。Dauphin 指出更严重的问题不是局部极值点,而是鞍点(一段导数接近0)
批次和轮次
轮次:epoch,轮次顾名思义是把我们已有的训练集数据学习多少轮。
批次:batch,批次这里指的的我们已有的训练集数据比较多的时候,一轮要学习太多数据,那就把一轮次要学习的数据分成多个批次,一批一批数据的学习。
归一化
目的
对于
X~1~对应年龄,X~2~对应工资,其维度单位不一样会导致训练时间参数变化,θ~2~的变化会小一些。
归一化的一个目的是使得最终梯度下降的时候可以不同维度θ参数可以在接近的调整幅度上。
归一化的方式
最大最小值归一化
最大最小值归一化,把所有值缩放到0到1之间,但是容易受到极大值的影响。
标准归一化
标准归一化是除以的是标准差,而标准差的计算
会考虑到所有样本数据,所以受到离群值的影响会小一些,这就是除以方差的好处!但是如
果是使用标准归一化不一定会把数据缩放到 0 到 1 之间了
正则化
提到正则化一定要先讲下拟合问题
过拟合欠拟合
(1) under fit:还没有拟合到位,训练集和测试集的准确率都还没有到达最高。学的还不
到位。
(2) over fit:拟合过度,训练集的准确率升高的同时,测试集的准确率反而降低。学的过
度了,做过的卷子都能再次答对,考试碰到新的没见过的题就考不好。
(3) just right:过拟合前训练集和测试集准确率都达到最高时刻。学习并不需要花费很多
时间,理解的很好,考试的时候可以很好的把知识举一反三。真正工作中我们是奔着过
拟合的状态去调的,但是最后要的模型肯定是没有过拟合的。
正则化就是防止过拟合 ,增加模型的鲁棒性 robust,鲁棒是 Robust 的音译,也就是强壮的意思。就像计算机软件在面临攻击、网络过载等情况下能够不死机不崩溃,这就是该软件的鲁棒性。鲁棒性调优就是让模型拥有更好的鲁棒性,也就是让模型的泛化能力和推广能力更加的强大。
所以正则化(鲁棒性调优)的本质就是牺牲模型在训练集上的正确率来提高推广能力, W 在数值上越小越好,这样能抵抗数值的扰动。在数值上越小越好,这样能抵抗数值的扰动。同时为了保证模型的正确率 W 又不能极小。
故而人们将原来的损失函数加上一个惩罚项,这里面损失函数就是原来固有的损失函数,比如回归的话通常MSE,分类的话通常是 cross entropy 交叉熵,然后在加上一部分惩罚项来使得计算出来的模型 W 相对小一些来带来泛化能力。
常见的惩罚项
其实 L1 和 L2 正则的公式数学里面的意义就是范数,代表空间中向量到原点的距离。当我们把多元线性回归损失函数加上 L2 正则的时候,就诞生了 Ridge 岭回归。当我们把多元线性回归损失函数加上 L1 正则的时候,就孕育出来Lasso 回归。
当我们看到上图时,其实里面学问很大,通常我们会说 L1 正则会使得计算出来的模型有的 W 趋近于 0,有的 W 相对较大,而 L2 会使得 W 参数整体变小,这是为什么呢?这得从梯度下降更新得角度去考虑如果损失函数加上正则项,那么导函数就等于多了正则项的导函数,即原来比如 MSE的导函数和 L1、L2 的导函数,那么梯度 gradient 就是这两部分组成,每次减小的幅度就是学习率η×(MSE 的导+L1/L2 的导),说白了就是比不加惩罚项要多更新一部分,这部分就
使得 W 奔着原点 0 去。
上式中λ是正则项系数,λ越大,说明我们算法工程师越看重模型的泛化能力,经验值是设置 0.4,也可以看成是保障正确率的 base loss 的权值是 1,保障泛化能力的正则项权值是 0.4。既然现在要去最小化的整体损失函数变成了两部分加和,那么θ就既得满足原有的损失函数比如 MSE,同时还得满足 L1 或者 L2 这部分,从图上来说就是θ得在紫色的损失函数等高线上同时又得在红色的 L1 或 L2 的等高线上,说白了就是要出现在交点上面。
因为更高维度空间的图形很难去绘制和观看,所以这里选择两个特征维度对应w~1~ 和w~2~ 两个参数的图来解释。
以下公式就是 L1 或者 L2 的导函数,也就是每次梯度下降会多走的幅度,我们可以看到如果是 L1 每次会多走η*1 的幅度,我们知道η学习率一开始设置一个常数那么每次多走的幅度对应不同的维度来说是一样的一个常数,学习率是 0.5 的话,比如w~1~ 多走 0.5,w~2~也是多走 0.5。反观 L2 每次多走的幅度是之前的 2 倍的w~i~ 。