[PyTorch][chapter 9][李宏毅深度学习][Why Deep]

前言:

我们知道深度学习一个重要特征是网络堆叠,深。 为什么需要深度,

本篇主要简单介绍一下该原因

目录:

1: 简介

2: 模块化分析

3: 语音识别例子


一 简介

有人通过实验,使用相同的网络参数,深度越深的网络相当于浅层网络效果更好。

1.1 Deeper is Better

如下图,随着网络层次逐渐加深,文本错误率逐渐降低

如下图,我们只用一层的网络,参数量跟多层一样,错误率高很多.

为什么产生这种现象?

同样的参数量,深度网络比浅层网络效果更好。


二 模块化分析

我们写程序,也把函数分为不同模块,实现不同功能

深度学习不同的层也相当于不同的函数,不同的函数实现不同的功能,

更高层也能使用到.

2.1 数据集的影响

比我我们要通过一个神经网络实现做4分类

|-------|------|
| 长头发女生 | 数据量大 |
| 长头发男生 | 数据量小 |
| 短头发女生 | 数据量大 |
| 短头发男生 | 数据量小 |

因为长头发男生数据集小,训练的网络一般会比较差。

解决方案:

使用更深层次的网络,有的用来识别男女,有的用来识别短头发长头发

然后更高层次的网络用来做4分类.

深度学习就相同于实现上面模组化的功能,每一层的神经元的输出,作为下一层神经元的输入.

我们没有足够的训练数据,所以做Deep Learning


三 语音识别例子

以发音识别为例:

输入了语音特征,输出对应的概率

在深度学习采样的模型如下:绿色模块是一些根据专家信息提取的声音

特征信息

Google 曾经做过实验:

使用深度学习的模型甚至完全不需要上面绿色的模块

可以达到前面模型一样的准确率.

11: Why Deep?_哔哩哔哩_bilibili


相关推荐
老兵发新帖22 分钟前
关于ONNX和pytorch,我们应该怎么做?结合训练和推理
人工智能
方安乐24 分钟前
杂记:对齐研究(AI alignment)
人工智能
方见华Richard1 小时前
世毫九《认知几何学修订版:从离散概念网络到认知拓扑动力学》
人工智能·经验分享·交互·原型模式·空间计算
人工智能培训1 小时前
基于Transformer的人工智能模型搭建与fine-tuning
人工智能·深度学习·机器学习·transformer·知识图谱·数字孪生·大模型幻觉
emma羊羊1 小时前
【AI技术安全】
网络·人工智能·安全
玄同7651 小时前
告别 AgentExecutor:LangChain v1.0+ Agent 模块深度迁移指南与实战全解析
人工智能·语言模型·自然语言处理·langchain·nlp·agent·智能体
永恒的溪流1 小时前
环境出问题,再修改
pytorch·python·深度学习
Fxrain1 小时前
[Reading Paper]FFA-Net
图像处理·人工智能·计算机视觉
GISer_Jing1 小时前
Memory、Rules、Skills、MCP如何重塑AI编程
前端·人工智能·aigc·ai编程
DS随心转APP1 小时前
ChatGPT和Gemini回答怎么导出
人工智能·ai·chatgpt·deepseek·ds随心转