【AI学习】聊两句深度学习的目标函数

在阅读《动手学深度学习》一书中,看到这样一段话:

"导数的计算,这是⼏乎所有深度学习优化算法的关键步骤。

在深度学习中,我们通常选择对于模型参数可微的损失函数。简⽽⾔之,对于每个参数,如果我们把这个参数增加或减少⼀个⽆穷⼩的量,我们可以知道损失会以多快的速度增加或减少。"

前面的文章也提到:深度学习回答了什么样的神经网络可以训练出智能,包括多层神经网络和卷积神经网络,也回答了训练(学习)方法问题,包括受限玻尔兹曼机模型、反向传播算法、自编码模型等。

反向传播算法,也就是反向导数传播,通过计算损失函数的损失,利用损失函数对于模型参数的可微性,将损失调整转换为模型参数的导数传播。这差不多是深度学习关键方法。由此也让深度学习模型成为函数的万能逼近器。

那如何目标函数不可微,怎么办?一种就是重参数化,类似VAE论文中采用方法。另一种就是采用强化学习,类似RLHF的方法。

相关推荐
byzh_rc4 分钟前
[机器学习-从入门到入土] 计算学习理论
人工智能·学习·机器学习
水如烟5 分钟前
孤能子视角:人工智能十一条关系线图谱
人工智能
Rabbit_QL9 分钟前
【深度学习数学基础】01_基础统计学
人工智能·深度学习
m0_5711866012 分钟前
第三十周周报
人工智能
绒绒毛毛雨19 分钟前
Advancing Table Understanding of Large Language Models via Feature Re-ordering
人工智能·语言模型·自然语言处理
Toky丶21 分钟前
【文献阅读】Optimum Quanto:量化工作流与数学公式整合笔记
人工智能·深度学习·机器学习
橙露22 分钟前
李一舟人工智能 2.0 视频分享:解锁 AI 时代核心竞争力
人工智能
Brian Xia23 分钟前
从 0 开始手写 AI Agent 框架:nano-agentscope(二)框架搭建
人工智能·python·ai
2503_9469718623 分钟前
【Virtualization/AGI】2026年度全沉浸式虚拟化架构与AGI沙箱逃逸基准索引 (Benchmark Index)
人工智能·网络安全·系统架构·数据集·元宇宙