深度学习读书笔记 绪论

深度学习是什么?

机器学习的分支。

深度学习问题也是指从有限样例中总结出一般的规律,应用在新的未知数据上的方法。

机器学习的三个基本要素

模型

机器学习任务首要弄明白的,也就是一个机器学习任务所面对的输入空间和输出空间。

输入空间到输出空间,xy之间的关系可以用一个函数或者分布来描述的话,机器学习的目标就是找到模型来接近这个真实的函数或者分布。

假设空间

指的是所有可能的预测模型(或假设)的集合。

也就是输入空间和输出空间的中间,模型参数作为模型这个假想函数的变量,作为一种理想状态来拟合真实情况或者说真实的函数。

学习准则

如果训练集由N个独立的,同分布的样本组成。

好的模型应该让xy的值与真实情况尽可能一致。

模型使用期望风险来衡量。

期望风险则是由损失函数来量化xy和真实xy的差异,从而计算期望来定义的。

损失函数有很多种,各自有优缺点。

我们想着最后总要让这个损失函数计算的期望最低,也就是风险最小化准则。

但是期望风险无法计算,能够计算的是经验风险,也就是训练集上的损失函数量化的结果。

如果追求风险最小化,得到的是经验风险的最小化,而不是期望风险。

如果训练样本量比较小,这样容易过拟合。

过拟合:

表现为模型在训练集上错误率低,在未知数据上错误率高。

为了解决过拟合,引入正则化。

正则化:

修改损失函数,添加正则项。

优化算法

最后,确定了训练集,假设空间,学习准则之后,如何找到最优模型?

一个最优化问题。怎么找到最优参数,就是我们的优化算法要解决的事情。

参数,超参数

如果理解参数是函数的系数的话,我们的超参数就是用来定义模型结构或者优化策略的。超参数是用来得到最优参数的手段的参数。

比如聚类算法的类别个数,梯度下降法的步长等。

梯度下降

最常见的优化算法。可以理解为一个人不断下山,寻找最优(最低处)目标。有很多情况,如果优化目标函数是非凸的,就可能只能找到局部最优。为此设计了很多不同的梯度下降避免我们下山路上卡在小山沟,比如一次性走的步长不同之类的思路。

提前停止

防止过拟合。在训练集上训练,使用验证集测试模型是否最优。每次迭代,检测训练出的模型是否在验证集上最优(即准确率不再提升)。

如果在训练集上准确率不断提升,验证集却证明准确率没有提升就是过拟合了,所以我们要在验证集上准确率不再提升时提前停止。

总结

深度学习也是机器学习,在一个机器学习任务中,最开始很重要的就是输入空间和输出空间的确立。之间的真实映射我们使用假设来拟合它,假设的集合就是假设空间。之后使用一个函数来评价不同假设的效果。之后使用优化算法使目标函数最小。(或者说假设效果最好)

相关推荐
风象南4 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶4 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶4 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考7 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab8 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab8 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸9 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云9 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8659 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
小笼包包仔10 小时前
OpenClaw 多Agent软件开发最佳实践指南
人工智能