安装 --- 动手学深度学习 2.0.0 documentation (d2l.ai)
7.1. 深度卷积神经网络(AlexNet) --- 动手学深度学习 2.0.0 documentation (d2l.ai)
配置环境
bash
conda create --name d2l python=3.9 -y
conda activate d2l
pip install d2l==0.17.6
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.0
mkdir d2l-zh && cd d2l-zh
curl https://zh-v2.d2l.ai/d2l-zh-2.0.0.zip -o d2l-zh.zip
unzip d2l-zh.zip && rm d2l-zh.zip
cd pytorch
jupyter notebook
代码
python
import torch
from torch import nn
from d2l import torch as d2l
net = nn.Sequential(
# 这里使用一个11*11的更大窗口来捕捉对象。
# 同时,步幅为4,以减少输出的高度和宽度。
# 另外,输出通道的数目远大于LeNet
nn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),
nn.MaxPool2d(kernel_size=3, stride=2),
# 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数
nn.Conv2d(96, 256, kernel_size=5, padding=2), nn.ReLU(),
nn.MaxPool2d(kernel_size=3, stride=2),
# 使用三个连续的卷积层和较小的卷积窗口。
# 除了最后的卷积层,输出通道的数量进一步增加。
# 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度
nn.Conv2d(256, 384, kernel_size=3, padding=1), nn.ReLU(),
nn.Conv2d(384, 384, kernel_size=3, padding=1), nn.ReLU(),
nn.Conv2d(384, 256, kernel_size=3, padding=1), nn.ReLU(),
nn.MaxPool2d(kernel_size=3, stride=2),
nn.Flatten(),
# 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合
nn.Linear(6400, 4096), nn.ReLU(),
nn.Dropout(p=0.5),
nn.Linear(4096, 4096), nn.ReLU(),
nn.Dropout(p=0.5),
# 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000
nn.Linear(4096, 10))
X = torch.randn(1, 1, 224, 224)
for layer in net:
X=layer(X)
print(layer.__class__.__name__,'output shape:\t',X.shape)
batch_size = 128
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)
lr, num_epochs = 0.01, 10
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
代码解析
这段代码定义了一个卷积神经网络(CNN)并训练了Fashion-MNIST数据集的图像分类任务。它使用PyTorch框架中的API来实现,并且模仿了AlexNet的一般结构,这是一个著名的网络结构,常用于图像识别任务。以下是代码解析的逐步解释:
- 导入相关模块:
-
torch:PyTorch深度学习框架的根模块。
-
nn:PyTorch中的模块,包含构建神经网络所需的所有组件。
-
d2l:这是用于深度学习的一个辅助库("Dive into Deep Learning"的缩写)。可能需要单独安装。
- 定义网络结构:`net`变量是一个由多个层组成的序贯模型(`nn.Sequential`),每一层的操作如下:
-
第一个卷积层:使用11x11的卷积核,96个输出通道,步幅为4,边缘填充为1。
-
激活函数ReLU:应用非线性激活函数。
-
最大池化层:使用3x3的窗口进行最大池化操作,步幅为2。
-
第二个卷积层:使用5x5的卷积核,256个输出通道,边缘填充为2。
-
三个连续的卷积层:每层使用3x3的卷积核,输出通道分别为384, 384, 256,并且有边缘填充以保持图像尺寸。
-
另一个最大池化层。
-
展平层:将二维输出展平以便输送给全连接层。
-
两个全连接层:具有4096个输出神经元,并且每层之后有Dropout操作,防止过拟合。
-
输出层:最后一个全连接层,将4096维的特征映射到10个类别上,对应Fashion-MNIST数据集的10个分类。
-
查看各层输出:通过遍历网络的每一层,输入一个随机生成的数据`X`(尺寸为1x1x224x224,代表一批大小为1的224x224像素的单通道图像),并打印各层的输出形状。
-
数据加载与预处理:加载Fashion-MNIST数据集,并调整图像大小到224x224,以匹配网络输入的期望大小。`batch_size`指定了批次大小。
-
定义超参数并开始训练:设置学习率为0.01,训练周期为10,然后调用`d2l.train_ch6`函数,开始训练过程。在训练过程中,这个函数将迭代数据集,并使用GPU(如果可用)进行计算。
ROCm (Radeon Open Compute) 提供了一个开放的生态系统,用于计算密集的任务,如深度学习。如果你要在支持ROCm的AMD GPU上运行深度学习模型(例如AlexNet),你需要确保ROCm已经安装在你的系统中,并且PyTorch与ROCm兼容。
在ROCm上运行PyTorch模型并不需要改变标准PyTorch模型的代码。然而,确保环境设置正确是至关重要的。下面是使用ROCm进行深度学习训练的一般步骤,我将以AlexNet为例说明:
安装ROCm
-
参考ROCm的官方文档,根据你的操作系统安装ROCm。
-
安装ROCm支持的PyTorch。你可以从PyTorch的官网获得与ROCm兼容的PyTorch安装命令。
请确保从PyTorch官网获取正确适配你的ROCm版本的安装命令。
运行AlexNet模型
由于你已经有了AlexNet模型的代码,且已经使用标准的PyTorch API编写,你不需要对模型代码本身做出改变。但在你开始训练模型之前,你需要确保代码运行在ROCm支持的GPU上。
对模型代码进行以下修改以便使用ROCm:
- 将模型移到GPU上
python
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
net.to(device) # Move your model to GPU
- 确保所有的张量也被送到GPU上
python
X = X.to(device) # Move your tensors to GPU
- 修改数据加载器,以便将数据传送到GPU
python
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)
在`load_data_fashion_mnist`函数中,确保数据在被提供给模型前移到GPU上。
接着,你可以像在标准PyTorch环境中一样使用`train_ch6`函数来训练模型。只要你的环境设置正确,ROCm将自动在AMD GPU上进行相关的计算。确保通过调用`d2l.try_gpu()`函数把模型和数据传送到正确的设备。