Pytorch实现CNN实验

一、实验要求

用 python 的 Pytorch模块实现卷积神经网络。网络结构为一个输入层、两个卷积层、一个全连接层、一个输出层。

二、实验目的

  1. 实现一个包含卷积层、池化层和全连接层的卷积神经网
  2. 了解如何在训练数据集上使用反向传播算法和Adam优化算法训练神经网络。
  3. 加深对卷积神经网络的了解

三、实验过程

1.搭建卷积神经网络

1)导入库

导入了PyTorch和相关库,包括神经网络模块 (nn) 和用于图像处理的torchvision模块,以及用于显示进度条的tqdm库

2)定义超参数和设备

定义了批量大小、训练周期数、学习率和保留概率,并检查是否有可用的CUDA设备。

3)数据预处理和加载

定义了数据预处理的转换(将图像转为张量并进行标准化),并加载了MNIST数据集,并创建了训练和测试数据加载器

4)定义卷积神经网络模型

使用nn.Sequential定义了一个简单的卷积神经网络模型。模型包含两个卷积层、池化层、全连接层以及一些激活函数和dropout层。

5)定义损失函数和优化器

使用交叉熵损失和Adam优化器

6)训练和测试循环

2.对模型进行优化、改进

1)运行程序,发现只有每轮训练的测试集结果输出,并没有整个训练测试集结果输出

增加相关代码,输出整体Loss和Acc

2)调整网络模型

去掉一层卷积和一层池化

增加一层卷积和一层池化

调整卷积核大小为3*3

3)调整学习率

调整学习率为1e-5

调整学习率为1e-3

4)调整epochs

调整epochs为15

调整epochs为20

四、实验结果

|-------------|------------|----------------|
| | Train Loss | Train Accuracy |
| 原始 | 1.4719 | 0.9906 |
| 一层卷积层一层池化 | 1.4765 | 0.9869 |
| 三层卷积层三层池化 | 1.4736 | 0.9888 |
| 卷积核为3*3 | 1.4765 | 0.9869 |
| 调整学习率为1e-5 | 1.5152 | 0.9543 |
| 调整学习率为1e-3 | 1.4797 | 0.9814 |
| 调整epochs为15 | 1.4685 | 0.9935 |
| 调整epochs为20 | 1.4665 | 0.9953 |

经过多次调参,优化模型,发现两层卷积层,两层池化层,卷积核大小为2*2,学习率为1e-4,epochs为20时,得出的准确率最高。

五、实验总结

在这个实验中,我使用了PyTorch搭建了一个简单的卷积神经网络(CNN)来进行手写数字(MNIST数据集)的分类任务。首先定义了网络模型,包含了卷积层、池化层和全连接层,通过使用ReLU激活函数和Dropout来增强模型的性能,并且使用了交叉熵损失函数和Adam优化器进行模型的训练,在每个epoch中使用训练集和测试集进行了模型的训练和评估。同时通过修改模型结构。卷积核的大小,学习率等操作进行优化模型,最终发现增大epoch可以使准确率增大,最终可达0.9953.

实验中也遇到了一些问题,比如在测试集输出中没有总的Loss和Accuracy,通过对代码的调整,成功地添加了这些信息,提高了实验的完整性,更好对比实验结果。并且,刚开始更改模型结构遇到很多困难,有时候因为一个小细节没有注意到,导致修改出错。

相关推荐
__如果2 小时前
论文精读--Two-Stream Convolutional Networks for Action Recognition in Videos
人工智能·深度学习
彭祥.3 小时前
基于深度学习的点云处理模型PointNet++学习记录
人工智能·深度学习·学习
SEU-WYL4 小时前
基于深度学习的沉浸式体验增强
人工智能·深度学习
Letmooning4 小时前
[深度学习]循环神经网络RNN
人工智能·rnn·深度学习
Bosenya124 小时前
【PyTorch】学习资料(持续更新)
人工智能·pytorch·python
Tunny_yyy7 小时前
深度学习常见术语介绍
人工智能·深度学习
_.Switch7 小时前
Python机器学习:数据预处理与清洗的打开方式
开发语言·人工智能·python·深度学习·机器学习·oracle·架构
科技互联人生7 小时前
英伟达Ampere架构和Hopper架构技术解析
人工智能·深度学习
SEU-WYL9 小时前
增强现实中的物体识别与跟踪
深度学习·ar