[PyTorch][chapter 9][李宏毅深度学习][Why Deep]

前言:

我们知道深度学习一个重要特征是网络堆叠,深。 为什么需要深度,

本篇主要简单介绍一下该原因

目录:

1: 简介

2: 模块化分析

3: 语音识别例子


一 简介

有人通过实验,使用相同的网络参数,深度越深的网络相当于浅层网络效果更好。

1.1 Deeper is Better

如下图,随着网络层次逐渐加深,文本错误率逐渐降低

如下图,我们只用一层的网络,参数量跟多层一样,错误率高很多.

为什么产生这种现象?

同样的参数量,深度网络比浅层网络效果更好。


二 模块化分析

我们写程序,也把函数分为不同模块,实现不同功能

深度学习不同的层也相当于不同的函数,不同的函数实现不同的功能,

更高层也能使用到.

2.1 数据集的影响

比我我们要通过一个神经网络实现做4分类

|-------|------|
| 长头发女生 | 数据量大 |
| 长头发男生 | 数据量小 |
| 短头发女生 | 数据量大 |
| 短头发男生 | 数据量小 |

因为长头发男生数据集小,训练的网络一般会比较差。

解决方案:

使用更深层次的网络,有的用来识别男女,有的用来识别短头发长头发

然后更高层次的网络用来做4分类.

深度学习就相同于实现上面模组化的功能,每一层的神经元的输出,作为下一层神经元的输入.

我们没有足够的训练数据,所以做Deep Learning


三 语音识别例子

以发音识别为例:

输入了语音特征,输出对应的概率

在深度学习采样的模型如下:绿色模块是一些根据专家信息提取的声音

特征信息

Google 曾经做过实验:

使用深度学习的模型甚至完全不需要上面绿色的模块

可以达到前面模型一样的准确率.

11: Why Deep?_哔哩哔哩_bilibili


相关推荐
明君879979 分钟前
Genkit Google 开源的 AI 应用开发框架介绍
人工智能
BertieHuang9 分钟前
《OpenCode 源码解析》Step 9: User Content 组装和第二次 LLM 调用概览
人工智能
AI攻城狮10 分钟前
长上下文不是长期记忆:为什么 1M Context 也不会淘汰 RAG
人工智能·云原生·aigc
疲惫的神熊猫11 分钟前
Linux(Ubuntu)部署Ollama+Qwen(千问)本地大模型实战01
人工智能
码路飞11 分钟前
熬夜看完 GTC 2026 Keynote,这 5 个发布跟开发者最相关(不只是显卡)
人工智能
山科智能信息处理实验室15 分钟前
ACM MM 2024 | GeoFormer:基于三平面(Tri-Plane)与Transformer的高维点云补全原理解析
深度学习·3d
数字生命卡兹克17 分钟前
AI,正在吞噬所有软件。
人工智能
深视智能科技43 分钟前
AIR 系列:极端环境下的高速成像方案
人工智能·科技·相机
HyperAI超神经1 小时前
基于2.5万临床数据,斯坦福大学发布首个原生3D腹部CT视觉语言模型,Merlin在752类任务中全面领先
人工智能·深度学习·神经网络·机器学习·3d·语言模型·cpu
飞Link1 小时前
具身智能:从大脑到四肢,AI跨越物理世界的全景指南
人工智能·机器人