深度学习·神经网络初步

神经网络

  • 输入层+隐藏层+输出层
  • 隐藏层有不同的种类

神经网络的术语

n [ i ] : n^{[i]}: n[i]:第i层的神经元个数
z [ i ] , w [ i ] , b [ i ] z^{[i]},w^{[i]},b^{[i]} z[i],w[i],b[i]:第i层的参数
a [ i ] : a^{[i]}: a[i]:第i层的激活函数

神经网络的原理

前向传播

z [ l + 1 ] = W [ l + 1 ] A [ l ] + b [ l + 1 ] z^{[l+1]}=W^{[l+1]}A^{[l]}+b^{[l+1]} z[l+1]=W[l+1]A[l]+b[l+1]

其中:

  • 矩阵 A [ l ] A^{[l]} A[l]是第 l l l层的输出矩阵(等价于第 l + 1 l+1 l+1层的输入矩阵),规模大小为( n [ l ] n^{[l]} n[l]x m m m)
  • 矩阵 W W W是第 l l l层的权重矩阵,规模大小为( n [ l + 1 ] n^{[l+1]} n[l+1]x n [ l ] n^{[l]} n[l])

矩阵A的实际含义是:列是样本,行是特征

矩阵W的实际含义是:看作当前层神经元的权重向量(这是一个行向量)组成的列向量

反向传播

提示:
J ( w , b ) J(w,b) J(w,b)等价于 J ( y , a [ l + 1 ] ) J(y,a^{[l+1]}) J(y,a[l+1])

利用链式法则求导,每次反向传播 z [ l + 1 ] z^{[l+1]} z[l+1]

推导过程如下

超参数和参数

  • 参数:w,b
  • 超参数:学习率, λ \lambda λ,神经元的个数,神经网络的层数,不同的层等,正则化方法

正则化

L2-正则化

公式与线性回归一致,只不过对矩阵 W W W求范数,需要计算 W W W中所有权重的和np.sum

Dropout正则化(反向随机失活)

随机丢弃一些神经元(输出结果置0)

表现在代码上就是生成随机矩阵作为掩码与输出矩阵相乘

相关推荐
爱打球的白师傅28 分钟前
python机器学习工程化demo(包含训练模型,预测数据,模型列表,模型详情,删除模型)支持线性回归、逻辑回归、决策树、SVC、随机森林等模型
人工智能·python·深度学习·机器学习·flask·逻辑回归·线性回归
烟袅38 分钟前
Trae 推出 Solo 模式:AI 开发的“一人一项目”时代来了?
前端·人工智能·solo
元宇宙时间1 小时前
AI赋能的$AIOT:打造Web3全周期智能生态的价值核心
人工智能·web3
瑞禧生物ruixibio1 小时前
Biotin-Oridonin B,生物素标记冬凌草乙素,可用于蛋白质修饰、药物靶标研究
人工智能
MediaTea1 小时前
Python 第三方库:TensorFlow(深度学习框架)
开发语言·人工智能·python·深度学习·tensorflow
GIS好难学1 小时前
【智慧城市】2025年华中农业大学暑期实训优秀作品(2):基于Vue框架和Java后端开发
人工智能·智慧城市
Joker-Tong1 小时前
大模型数据洞察能力方法调研
人工智能·python·agent
哔哩哔哩技术1 小时前
VisionWeaver:从“现象识别”到“病因诊断”,开启AI视觉幻觉研究新篇章
人工智能
道可云1 小时前
AI赋能:农业场景培育如何支撑乡村全面振兴
人工智能
极客代码2 小时前
第七篇:深度学习SLAM——端到端的革命--从深度特征到神经辐射场的建图新范式
人工智能·python·深度学习·计算机视觉·slam·回环检测·地图构建