CNN 的基本结构
卷积神经网络(CNN)通过分层结构自动提取图像特征。典型结构包括输入层、卷积层、池化层、全连接层和输出层。
- 输入层:接收原始图像数据(如RGB三通道的像素矩阵)。
- 卷积层 :使用卷积核(滤波器)扫描图像,提取局部特征(如边缘、纹理)。
数学表达式为:S(i, j) = (I \* K)(i, j) = \\sum_m \\sum_n I(i+m, j+n) K(m, n)
其中 ( I ) 为输入图像,( K ) 为卷积核。 - 池化层(如最大池化):降低特征图尺寸,增强平移不变性。
- 全连接层:将高阶特征映射到分类结果。
特征提取过程
CNN通过多层卷积逐步抽象特征:
- 浅层卷积:检测低级特征(边缘、颜色渐变)。
- 深层卷积:组合低级特征形成高级特征(物体部件、整体形状)。
- 全连接层:汇总所有特征,通过Softmax输出类别概率。
关键机制
- 局部感受野:卷积核仅连接输入局部区域,减少参数量。
- 参数共享:同一卷积核在图像上滑动复用,提升效率。
- 非线性激活(如ReLU):引入非线性,增强表达能力。
经典网络示例
- LeNet-5:早期CNN,用于手写数字识别。
- AlexNet:引入ReLU和Dropout,深度提升。
- ResNet:残差连接解决深层网络梯度消失问题。
代码示例(PyTorch实现简单CNN):
python
import torch.nn as nn
class SimpleCNN(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(3, 16, kernel_size=3, stride=1)
self.pool = nn.MaxPool2d(2, 2)
self.fc1 = nn.Linear(16 * 14 * 14, 10) # 假设输入为32x32图像
def forward(self, x):
x = self.pool(nn.ReLU()(self.conv1(x)))
x = x.view(-1, 16 * 14 * 14)
x = self.fc1(x)
return x
训练与优化
- 损失函数:交叉熵损失(分类任务)。
- 反向传播:通过梯度下降(如Adam优化器)更新权重。
- 数据增强:旋转、裁剪等提升泛化能力。
CNN通过这种分层特征学习和端到端训练,实现了高效的图像识别能力。