在人工智能的浪潮中,深度学习(Deep Learning) 是近年来最火热的研究与应用方向。而支撑深度学习的核心就是------人工神经网络(Artificial Neural Network, ANN)。本文将带你初步了解神经网络的基本结构,帮助你快速入门。
一、什么是神经网络?
人工神经网络的灵感来源于人类大脑的神经元结构。大脑通过神经元的连接和信号传递处理信息,而人工神经网络则用数学函数与矩阵运算模拟这一过程。
- 神经元(Neuron):最小的计算单元,接收输入,经过加权求和与非线性变换后输出结果。
- 神经网络(Neural Network):由大量神经元按照层次结构组合而成,形成输入层、隐藏层和输出层。
二、神经网络的基本结构
1. 输入层(Input Layer)
- 接收数据的入口。
- 输入数据可以是图像像素、文本向量、特征数据等。
- 每个节点对应一个特征。
例如,房价预测问题中,特征可能包括"面积、房龄、位置"。
2. 隐藏层(Hidden Layer)
-
位于输入层与输出层之间,由多个神经元组成。
-
每一层神经元都会将输入做加权求和,再经过 激活函数(Activation Function) 处理,增加非线性。
-
深度学习的"深度"就是指隐藏层的层数。
-
常见激活函数:
- ReLU :ReLU(x)=max(0,x)\text{ReLU}(x) = \max(0, x)ReLU(x)=max(0,x)
- Sigmoid :将结果映射到 [0,1][0,1][0,1]
- Tanh :映射到 [−1,1][-1,1][−1,1]
3. 输出层(Output Layer)
-
产生最终预测结果。
-
根据任务不同,输出形式也不同:
- 回归问题:输出一个连续值
- 分类问题:输出多个类别概率(Softmax 函数常用)
4. 权重与偏置(Weights & Bias)
- 权重(w):表示输入特征的重要程度,类似于线性方程中的系数。
- 偏置(b):让模型有更大的灵活性,避免所有输入为零时输出固定为零。
公式:
z=w1x1+w2x2+...+wnxn+b z = w_1x_1 + w_2x_2 + ... + w_nx_n + b z=w1x1+w2x2+...+wnxn+b
5. 前向传播(Forward Propagation)
输入数据依次通过各层神经元,逐层计算输出,直到得到预测结果。
6. 反向传播(Backpropagation)
神经网络通过 误差反向传播 来更新参数。
- 计算预测结果与真实值之间的误差(损失函数)。
- 将误差沿网络反向传播,更新权重与偏置。
- 优化算法常用 梯度下降(Gradient Descent)。
三、一个简单的例子
以二分类任务(如"是否点击广告")为例:
- 输入层:用户特征(年龄、浏览时长、点击次数等)。
- 隐藏层:多层神经元,通过非线性变换学习特征组合。
- 输出层:使用 Sigmoid 输出概率(是否点击)。
最终,模型可以自动学习哪些特征对结果更重要,从而进行预测。
四、总结
神经网络的基本结构包括:
- 输入层:接收数据。
- 隐藏层:特征提取与非线性映射。
- 输出层:生成结果。
- 权重、偏置、激活函数:支撑计算的核心要素。
理解了这些基础,才能更好地学习 CNN(卷积神经网络)、RNN(循环神经网络)、Transformer 等更复杂的深度学习模型。