【AI学习】聊两句深度学习的目标函数

在阅读《动手学深度学习》一书中,看到这样一段话:

"导数的计算,这是⼏乎所有深度学习优化算法的关键步骤。

在深度学习中,我们通常选择对于模型参数可微的损失函数。简⽽⾔之,对于每个参数,如果我们把这个参数增加或减少⼀个⽆穷⼩的量,我们可以知道损失会以多快的速度增加或减少。"

前面的文章也提到:深度学习回答了什么样的神经网络可以训练出智能,包括多层神经网络和卷积神经网络,也回答了训练(学习)方法问题,包括受限玻尔兹曼机模型、反向传播算法、自编码模型等。

反向传播算法,也就是反向导数传播,通过计算损失函数的损失,利用损失函数对于模型参数的可微性,将损失调整转换为模型参数的导数传播。这差不多是深度学习关键方法。由此也让深度学习模型成为函数的万能逼近器。

那如何目标函数不可微,怎么办?一种就是重参数化,类似VAE论文中采用方法。另一种就是采用强化学习,类似RLHF的方法。

相关推荐
mit6.8241 分钟前
20种Agent 设计模式
人工智能·设计模式
张二娃同学2 分钟前
专栏第01篇_深度学习导论
人工智能·python·深度学习·cnn
DragonnAi5 分钟前
论文解读:SFINet 空间-频率统一学习框架用于多模态图像融合
深度学习·学习·计算机视觉
ConardLi5 分钟前
Harness 实践:让 Agent 全自动制作知识讲解视频
前端·人工智能·后端
workflower5 分钟前
企业酝酿数智化内驱力
大数据·人工智能·设计模式·机器人·动态规划
0xR3lativ1ty7 分钟前
大模型架构新突破:混合注意力引领高效推理
人工智能
机器学习之心9 分钟前
DBO-Transformer模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析(附MATLAB代码)
深度学习·回归·transformer·shap分析
晓梦林13 分钟前
Commit靶场学习笔记
笔记·学习·安全·web安全
tanis_207714 分钟前
DeepSeek-TUI 也能读 PDF 了:Skill + MinerU CLI 终端文档解析实战
人工智能·后端·深度学习·pdf·csdn开发云
RxGc16 分钟前
多Agent协作的真实瓶颈:为什么2个Agent比1个强,10个反而更差
人工智能·agent