一、概念
在 卷积神经网络(CNN) 中,模型通常不是一两层,而是由 多层卷积层、池化层、全连接层 堆叠起来。
原因在于:每一层都在学习不同层次的特征,从 简单 → 复杂,逐步组合。
二、原理
1. 层的分工
-
卷积层(Conv2D)
- 提取局部特征。
- 第一层学边缘、线条;第二层学纹理、角点;更深层学物体部件。
-
激活函数层(ReLU, LeakyReLU 等)
- 引入非线性,否则网络只能学"线性变换"。
-
池化层(MaxPooling/AveragePooling)
- 下采样,减少参数,保留关键信息,增强平移不变性。
-
全连接层(Dense)
- 把卷积提取的特征组合起来,完成分类/回归。
-
Softmax 层
- 把数值转成概率,用于分类输出。
2. 分层特征表示
可以类比人类视觉:
- 低层神经元只对"边缘/亮度"敏感;
- 中层神经元能识别"形状/图案";
- 高层神经元能识别"物体整体"(比如数字 5、猫耳朵)。
三、对比
网络层 | 学习内容 | 作用 | 类比人类视觉 |
---|---|---|---|
卷积层1 | 边缘、直线、颜色斑块 | 初步特征提取 | 看到"黑白对比" |
卷积层2 | 纹理、角点 | 组合低层特征 | 看到"弯曲的线" |
卷积层3+ | 复杂形状、局部物体 | 更高语义特征 | 看到"眼睛/鼻子/数字形状" |
池化层 | 缩小空间维度 | 提升鲁棒性 | 只在意"有无",不在意具体位置 |
全连接层 | 全局组合 | 输出分类/预测结果 | 大脑做"最终判断" |
四、实践(代码示例:多层 CNN)
less
const model = tf.sequential();
// 第1层卷积:学边缘
model.add(tf.layers.conv2d({
inputShape: [28, 28, 1],
filters: 32,
kernelSize: 3,
activation: 'relu'
}));
model.add(tf.layers.maxPooling2d({poolSize: [2, 2]}));
// 第2层卷积:学纹理
model.add(tf.layers.conv2d({
filters: 64,
kernelSize: 3,
activation: 'relu'
}));
model.add(tf.layers.maxPooling2d({poolSize: [2, 2]}));
// 第3层卷积:学更复杂的形状
model.add(tf.layers.conv2d({
filters: 128,
kernelSize: 3,
activation: 'relu'
}));
model.add(tf.layers.flatten());
// 全连接层:组合特征
model.add(tf.layers.dense({units: 128, activation: 'relu'}));
// 输出层:分类 0-9
model.add(tf.layers.dense({units: 10, activation: 'softmax'}));
👉 注释:
- Conv2D×3:逐层提取特征。
- MaxPooling2D:缩小特征图,减少计算。
- Flatten + Dense:把空间特征变成全局判断。