【AI学习】聊两句深度学习的目标函数

在阅读《动手学深度学习》一书中,看到这样一段话:

"导数的计算,这是⼏乎所有深度学习优化算法的关键步骤。

在深度学习中,我们通常选择对于模型参数可微的损失函数。简⽽⾔之,对于每个参数,如果我们把这个参数增加或减少⼀个⽆穷⼩的量,我们可以知道损失会以多快的速度增加或减少。"

前面的文章也提到:深度学习回答了什么样的神经网络可以训练出智能,包括多层神经网络和卷积神经网络,也回答了训练(学习)方法问题,包括受限玻尔兹曼机模型、反向传播算法、自编码模型等。

反向传播算法,也就是反向导数传播,通过计算损失函数的损失,利用损失函数对于模型参数的可微性,将损失调整转换为模型参数的导数传播。这差不多是深度学习关键方法。由此也让深度学习模型成为函数的万能逼近器。

那如何目标函数不可微,怎么办?一种就是重参数化,类似VAE论文中采用方法。另一种就是采用强化学习,类似RLHF的方法。

相关推荐
zhengfei6112 小时前
AI渗透工具——AI驱动的自动化渗透测试框架 | 基于 Model Context Protocol (MCP) 架构
人工智能·架构·自动化
袁庭新2 小时前
2025年终总结,智启
人工智能·aigc
540_5402 小时前
ADVANCE Day35
人工智能·python·深度学习
百***07452 小时前
Claude Opus 4.5 场景化实战指南:全链路赋能开发,提升效率翻倍
人工智能·gpt·开源
DeepVis Research2 小时前
【2025深度学习全家桶】Android Studio Otter + CUDA 11.8/12.1 离线安装包 | AI开发环境一键搞定
pytorch·深度学习·android studio·cuda·stablediffusion
沛沛rh452 小时前
深度学习0基础入门:从人工规则到神经网络的进化之旅
人工智能·深度学习·神经网络
DuHz2 小时前
我的技术博客年度总结
学习
hk11243 小时前
【Quantum/Chaos】2026年度量子混沌模拟与社会技术系统演化基准索引 (Socio-Technical Benchmark)
人工智能·网络安全·系统架构·数据集·量子计算
郑泰科技3 小时前
python深度学习报错:Original error was: No module named ‘numpy.core._multiarray_umath‘
python·深度学习·numpy
梦想画家3 小时前
Apache AGE 实战进阶:从图查询到知识图谱+LLM知识问答全流程
人工智能·知识图谱·apache age