李宏毅深度学习--如何做到鱼与熊掌兼得

兼得也就是:在比较少的参数量的情况下得到较低的Loss
下面主要是对比:

为什么网络更深比网络更宽会更好

获得分段的function,分的段越多,得到的函数就越接近真实的

分段+常数+一些分段函数的sum

如何制造阶梯型的function

  • sigmoid function

每个neuron产生一个阶梯型的function

只要有足够多的neuron,就可以产生任何形状的piecewis function

ReLU

为什么我们要深层网络,而不是扩展网络的宽度

网络越深,错误率越低

同样的参数量的时候,把一层的结点数变多,不如把网络变深

在产生同样的function的时候,矮胖的网络比高瘦的网络需要更多的参数量

example

接入第二层

接入第三层

  • Deep:(2^k个线段)一层2个neuron,总共三层,总共6个neuron
  • Shallow:(2^k个线段)只一层,一个neuron只能产生一个线段,2^k个线段就需要2^k个neuron

exponentially:需要多的参数量的意思

相关推荐
博云技术社区8 分钟前
DeepSeek×博云AIOS:突破算力桎梏,开启AI普惠新纪元
人工智能·博云·deepseek
ZHOU_WUYI16 分钟前
Process-based Self-Rewarding Language Models 论文简介
人工智能·深度学习
优维科技EasyOps29 分钟前
优维眼中的Manus:AI工程化思维重构Agent的运维端启示
运维·人工智能·重构
碣石潇湘无限路33 分钟前
【奇点时刻】通义千问开源QwQ-32B技术洞察报告(扫盲帖)
人工智能·开源
西猫雷婶40 分钟前
神经网络|(十五)|霍普菲尔德神经网络-Storkey 训练
人工智能·深度学习·神经网络
张申傲1 小时前
DeepSeek + ReAct 实现 Agent
人工智能·ai·chatgpt·aigc·deepseek
凡人的AI工具箱1 小时前
PyTorch深度学习框架60天进阶学习计划第14天:循环神经网络进阶
人工智能·pytorch·python·深度学习·学习·ai编程
西京刀客1 小时前
从零开始训练小型语言模型之minimind
人工智能·语言模型·自然语言处理
后端小肥肠1 小时前
企业抢着要的AI方案:DeepSeek-R1微调实战,3天构建行业内容生成器
人工智能·llama·deepseek
Luis Li 的猫猫1 小时前
基于Matlab的人脸识别的二维PCA
开发语言·人工智能·算法·matlab