机器学习相关内容

文章目录

感知机和SVM

感知机

参考文章

对上述文章部分内容进行额外补充和解释:

这里的"在训练数据集中选取数据(x,y)"具体是如何选取的?

通俗解释:

SVM(支持向量法)

参考文章

二者联系和区别

感知机(Perceptron)和支持向量机(Support Vector Machine, SVM)都是经典的线性分类器 ,它们旨在找到一个能够将不同类别数据分开的超平面。SVD可以认为是基于感知机基础上的改进。

区别:

主要是下图标注的地方内容

GRU和LSTM

GRU

参考文章

额外补充:

上述内容的记忆和遗忘是针对新的候选信息 h ^ t \hat h_t h^t!GRU通过一个更新门 z t z_t zt同时控制遗忘和更新,当 z t z_t zt很大,就意味着大量遗忘旧信息并大量吸收新信息;如果 z t z_t zt很小,就意味着大量保留旧信息并大量忽略新消息。它没有 LSTM 那样独立地"只遗忘一部分旧信息,但完全不吸收新信息"的能力。

LSTM

参考文章

二者区别与联系

联系:

上述两者都是基于循环神经网络(RNN)的改进,可以解决RNN中不能长期记忆和反向传播中的梯度等问题。它们通过引入门控机制来选择性地记忆和遗忘信息。

区别:

主要的区别在于它们的内部结构、门的数量以及门控机制的实现方式。

1.门控机制和数量
LSTM有是三个门,俩状态

两个状态分别为:

(1).细胞状态 C t C_t Ct

(2).隐藏状态 h t h_t ht

细胞状态 ( C t C_t Ct) 负责长期信息的存储和传输,是 LSTM 核心的记忆通道。

隐藏状态 ( h t h_t ht) 负责当前时间步的输出,并在一定程度上也携带了信息,参与到下一个时间步的门控计算中。

GRU有两个门:

2.内部结构与状态

3.对信息的控制粒度

4.参数数量和计算效率

正则化

参考文章

正则化存在的意义,能帮助我们在训练模型的过程中,防止模型过拟合。在不减少模型特征参数的前提情况下,降低模型的复杂程度。

为什么正则化约束可以防止模型过拟合?

通过约束参数的数值,从而限制模型的复杂程度。

L1正则化和L2正则化

图中的"L2正则化只能使得模型的参数数值趋于零,但不能等于0,而L1正则化却可以"内容,这是为什么?

下图从数学角度分析:

文章中也有从几何方式解释内容:

上述图是从二维空间进行分析,(坐标系分别对应 w 1 , w 2 w_1,w_2 w1,w2)

注:带正则化的约束问题的目标函数是: m i n w L ( w ) + t R ( w ) min_wL(w)+tR(w) minwL(w)+tR(w),可以转化为带有约束的形式为 m i n w L ( w ) , s . t . R ( w ) < = T min_wL(w) ,s.t.R(w)<=T minwL(w),s.t.R(w)<=T。

图具体表示什么意思:图中的蓝色图像表示的是损失函数的等高线(代表 L ( w ) L(w) L(w)的值) , 图中的红色图像分别表示的是L2正则化约束区域和L1正则化约束区域(代表了 R ( w ) < = T R(w)<=T R(w)<=T的区域,优化算法只能在这个区域内寻找解,否则 w w w值过大,则会使得带约束的问题目标函数数值很大)

L2正则化目标函数公式:
m i n w ( L ( w ) + t ∣ ∣ w ∣ ∣ 2 2 min_w(L(w)+t||w||_2^2 minw(L(w)+t∣∣w∣∣22

其中的蓝色的圆的半径长度对应的就是 L ( w ) L(w) L(w)数值,红色的图形中,红色圆表示的是L2正则化约束范围,即 t ∣ ∣ w ∣ ∣ 2 2 t||w||_2^2 t∣∣w∣∣22(原点到红色边的距离),

同理:

L1正则化目标函数公式:
m i n w ( L ( w ) + t ∣ ∣ w ∣ ∣ 1 ) min_w(L(w)+t||w||_1) minw(L(w)+t∣∣w∣∣1)

红色菱形图形表示的就是L1正则化约束范围,即 t ∣ ∣ w ∣ ∣ 1 t||w||_1 t∣∣w∣∣1(原点到红色边的距离)。
我们想要求目标函数数值最低时的 w w w数值,即红色图像和蓝色图像关于某个点( w w w)的距离之和最小。这个数值往往是蓝色和红色这两个图像的相切地方。

相关推荐
有谁看见我的剑了?3 小时前
LVS虚拟调度器学习
学习·lvs
机器视觉知识推荐、就业指导4 小时前
QML学习:1.快速了解QML
qt·学习·qml
Duo1J4 小时前
【OpenGL】LearnOpenGL学习笔记25 - 法线贴图 NormalMap
笔记·学习·图形渲染·贴图·着色器
Duo1J4 小时前
【OpenGL】LearnOpenGL学习笔记26 - 视差贴图 Parallax Map
笔记·学习·图形渲染·贴图·着色器
风已经起了4 小时前
FPGA学习笔记——图像处理之亮度调节(乘法型)
图像处理·笔记·学习·fpga开发·fpga
能不能别报错4 小时前
K8s学习笔记(五) Velero结合minnio业务数据备份与恢复
笔记·学习·kubernetes
能不能别报错5 小时前
K8s学习笔记(六) K8s升级与节点管理
笔记·学习·kubernetes
今天也好累5 小时前
贪心算法之分数背包问题
c++·笔记·学习·算法·贪心算法
九年义务漏网鲨鱼6 小时前
等效学习率翻倍?梯度累积三连坑:未除以 accum_steps、调度器步进错位、梯度裁剪/正则标度错误(含可复现实验与修复模板)
python·深度学习·学习