Pytorch 与 Tensorflow对比学习 第3周:进阶主题 Day 15-16: 卷积神经网络(CNN)

第3周:进阶主题
Day 15-16: 卷积神经网络(CNN)

在这两天中,我专注于学习卷积神经网络(CNN)的基础知识,包括卷积层和池化层的工作原理以及它们在图像处理中的应用。

卷积神经网络基础:

卷积层:学习了卷积层如何通过滤波器(或称为核)提取图像的特征。每个滤波器负责捕捉图像中的不同特征。

激活函数:理解了ReLU(Rectified Linear Unit)作为激活函数在CNN中的广泛应用,用于增加非线性。

池化层:了解了池化层(尤其是最大池化)如何帮助减少参数数量并防止过拟合,同时保留重要特征。

实践构建CNN:

设计并实现了一个简单的CNN模型,用于处理图像数据。

模型包括卷积层、激活函数、池化层以及全连接层来进行分类。

PyTorch实现:

在PyTorch中,我使用torch.nn模块定义了CNN的各个组件。

实现了一个包含卷积层、ReLU激活和最大池化层的简单网络。

下面是一个简单的CNN模型的PyTorch实现示例:

import torch

import torch.nn as nn

import torch.optim as optim

定义一个简单的CNN

class SimpleCNN(nn.Module):

def init (self):

super(SimpleCNN, self).init ()

self.conv1 = nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1)

self.relu = nn.ReLU()

self.maxpool = nn.MaxPool2d(kernel_size=2, stride=2)

self.fc = nn.Linear(32 * 14 * 14, 10) # 假设输入图像大小为28x28

复制代码
def forward(self, x):
    x = self.conv1(x)
    x = self.relu(x)
    x = self.maxpool(x)
    x = x.view(-1, 32 * 14 * 14)  # 展平操作
    x = self.fc(x)
    return x

实例化模型、定义损失函数和优化器

model = SimpleCNN()

criterion = nn.CrossEntropyLoss()

optimizer = optim.Adam(model.parameters(), lr=0.001)、

TensorFlow实现

在TensorFlow中,我们将使用Keras API来构建相似的CNN结构。这个例子同样包含卷积层、ReLU激活函数、池化层和一个全连接层。

import tensorflow as tf

from tensorflow.keras.models import Sequential

from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense

定义一个简单的CNN

model = Sequential([

Conv2D(32, kernel_size=(3, 3), strides=(1, 1), padding='same', activation='relu', input_shape=(28, 28, 1)),

MaxPooling2D(pool_size=(2, 2), strides=(2, 2)),

Flatten(),

Dense(10, activation='softmax')

])

编译模型

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

模型概要

model.summary()

在这个TensorFlow实现中,我们使用了Sequential模型来顺序地添加层。这种方法使得模型的构建过程更加直观和简洁。Conv2D和MaxPooling2D分别对应于PyTorch中的nn.Conv2d和nn.MaxPool2d。Flatten层用于将卷积层的输出展平,以便输入到全连接层(Dense层)。

通过对比PyTorch和TensorFlow的实现,可以看出两个框架在构建CNN方面的异同,这有助于更深入地理解这些概念,并在不同框架间转换思维方式。

相关推荐
Fantasydg4 小时前
Servlet学习
学习·servlet
雍凉明月夜5 小时前
Ⅰ人工智能学习的核心概念概述+线性回归(1)
人工智能·学习
2301_783360135 小时前
R语言 | 带重要性相关热图和贡献图如何解释?如何绘制随机森林计算结果重要性及相关性图?[学习笔记]
学习·随机森林·r语言
潲爺5 小时前
Java IDEA学习之路:第九周课程笔记归纳
java·学习·intellij-idea
石像鬼₧魂石6 小时前
192.168.1.4(Windows 靶机)渗透测试练习全流程(详细步骤)
windows·学习
GLAB-Mary6 小时前
HCIE最优规划路线:如何系统性学习华为认证?
学习·华为·华为认证·hcie·数通
月下倩影时6 小时前
视觉学习——卷积与神经网络:从原理到应用(量大管饱)
人工智能·神经网络·学习
d111111111d7 小时前
STM32外设学习-串口数据包笔记-(程序)
笔记·stm32·单片机·嵌入式硬件·学习
zhoutanooi7 小时前
安卓bp文件编译学习
android·学习
蓝桉~MLGT9 小时前
Python学习历程——Python面向对象编程详解
开发语言·python·学习