Pytorch学习第二周--Day 12-13: 构建你的第一个神经网络

Day 12-13: 构建你的第一个神经网络

在这两天里,我动手实践构建了我的第一个神经网络,目的是解决一个基本的分类问题。使用了两个主流的深度学习框架:PyTorch和TensorFlow,以对比和理解它们在神经网络构建方面的不同。

目标:构建一个全连接的神经网络来处理分类问题。

过程:

设计网络结构,包括输入层、若干隐藏层和输出层。

选择合适的激活函数,如ReLU。

定义损失函数和优化器,例如使用交叉熵损失和Adam优化器。

实现:

在PyTorch中,我定义了一个nn.Module类,通过定义forward方法来实现数据的前向传播。

在TensorFlow中,我使用Sequential API来构建模型,这是一种更简洁、更高级的方法。

以下是具体的实现代码:

PyTorch代码示例

import torch

import torch.nn as nn

import torch.optim as optim

定义一个全连接神经网络

class FullyConnectedNN(nn.Module):

def init (self):

super(FullyConnectedNN, self).init ()

self.fc1 = nn.Linear(784, 128) # 假设输入是28x28图像,展平后的大小为784

self.relu = nn.ReLU()

self.fc2 = nn.Linear(128, 10) # 假设有10个类别

def forward(self, x):
    x = self.fc1(x)
    x = self.relu(x)
    x = self.fc2(x)
    return x

实例化模型

model = FullyConnectedNN()

定义损失函数和优化器

criterion = nn.CrossEntropyLoss()

optimizer = optim.Adam(model.parameters(), lr=0.001)

TensorFlow代码示例

import tensorflow as tf

from tensorflow.keras.models import Sequential

from tensorflow.keras.layers import Dense

定义一个全连接神经网络

model = Sequential([

Dense(128, activation='relu', input_shape=(784,)), # 假设输入是28x28图像,展平后的大小为784

Dense(10, activation='softmax') # 假设有10个类别

])

编译模型

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

在这两个实现中,我专注于构建一个相对简单的神经网络,适用于处理基本的分类问题。通过这个练习,我加深了对神经网络结构和深度学习框架的理解,并获得了实际操作的经验。

相关推荐
幼儿园老大*1 小时前
走进 Go 语言基础语法
开发语言·后端·学习·golang·go
1 小时前
开源竞争-数据驱动成长-11/05-大专生的思考
人工智能·笔记·学习·算法·机器学习
ctrey_1 小时前
2024-11-4 学习人工智能的Day21 openCV(3)
人工智能·opencv·学习
啦啦右一1 小时前
前端 | MYTED单篇TED词汇学习功能优化
前端·学习
Chef_Chen1 小时前
从0开始机器学习--Day17--神经网络反向传播作业
python·神经网络·机器学习
霍格沃兹测试开发学社测试人社区2 小时前
软件测试学习笔记丨Flask操作数据库-数据库和表的管理
软件测试·笔记·测试开发·学习·flask
今天我又学废了2 小时前
Scala学习记录,List
学习
王俊山IT2 小时前
C++学习笔记----10、模块、头文件及各种主题(一)---- 模块(5)
开发语言·c++·笔记·学习
好喜欢吃红柚子3 小时前
万字长文解读空间、通道注意力机制机制和超详细代码逐行分析(SE,CBAM,SGE,CA,ECA,TA)
人工智能·pytorch·python·计算机视觉·cnn
Mephisto.java3 小时前
【大数据学习 | kafka高级部分】kafka中的选举机制
大数据·学习·kafka