深度学习中的梯度相关问题

1.求偏导的意义、作用?为什么要求偏导?

偏导数帮助我们理解函数在某一个变量变化时,函数值如何变化,同时保持其他变量不变。在机器学习中,尤其是训练神经网络时,我们通过求偏导数来确定如何调整模型参数以最小化损失函数。这相当于找到损失景观中每个参数的斜率,指导我们如何调整参数以更快地达到最小损失。这对于像梯度下降这样的优化算法至关重要。

2.加法门、乘法门、激活函数门是什么?

这些是计算图中的操作:

  • 加法门 是加法操作,用于将两个或多个值相加,常见于神经网络中组合加权输入。

  • 乘法门 是乘法操作,用于将输入与权重相乘。

  • 激活函数门 是应用激活函数(如ReLU或 sigmoid),引入非线性,帮助网络学习复杂模式。

3.常见的损失函数框架都会封装好,反向传播求导先从损失函数开始?

在TensorFlow或PyTorch等框架中,反向传播从损失函数开始。框架自动计算从损失到各权重的梯度,极大简化了开发过程。

回归问题:

4.MSE:求导损失函数后,其实是求了每条样本残差的平均值?

对于均方误差(MSE),损失函数的导数相对于预测值,实际上是每条样本残差(预测值与真实值之差)的平均值。这符合MSE是 squared differences的平均值,其导数直接与残差相关。

分类问题:

5.对于MSE和交叉熵损失函数,求导(偏导)后得到的结果一样,是否意味着对于回归和分类两大类问题,除了输入的数据X的类型不一样(回归--连续型;分类--离散型),在做反向传播时的计算结构大体相近?

只能说梯度的公式一样,但是数据的类型和计算图中的网络结构、超参数什么的不太近似,如果很接近就没有对问题的区分度了

参考来源:【官方】百战程序员_IT在线教育培训机构_体系课程在线学习平台

相关推荐
慎独41312 小时前
政策东风起,财富新赛道:绿色积分与消费商引领新型消费革命
人工智能
CICI1314141313 小时前
自动化焊接机器人厂家哪家好?
人工智能·机器人·自动化
wanzhong233313 小时前
CUDA学习5-矩阵乘法(共享内存版)
深度学习·学习·算法·cuda·高性能计算
ZzzZ3141592613 小时前
【无标题】
人工智能
Hcoco_me13 小时前
大模型面试题19:梯度消失&梯度爆炸 纯白话文版
人工智能·rnn·深度学习·自然语言处理·word2vec
哈__13 小时前
CodeLlama与昇腾NPU的实践之旅
人工智能·gitcode·sglang
GMICLOUD13 小时前
GMI Cloud@AI周报 | MiniMax 叩响港股大门;智谱 GLM-4.7 开源
人工智能·ai资讯
0x000713 小时前
进击的智谱 - GLM 4.7 双旦大礼
人工智能
_codemonster13 小时前
AI大模型入门到实战系列--使用Pytorch实现transformer文本分类
人工智能·pytorch·transformer
Elastic 中国社区官方博客14 小时前
Elasticsearch:在 X-mas 吃一些更健康的东西
android·大数据·数据库·人工智能·elasticsearch·搜索引擎·全文检索