Pytorch学习第二周--Day 12-13: 构建你的第一个神经网络

Day 12-13: 构建你的第一个神经网络

在这两天里,我动手实践构建了我的第一个神经网络,目的是解决一个基本的分类问题。使用了两个主流的深度学习框架:PyTorch和TensorFlow,以对比和理解它们在神经网络构建方面的不同。

目标:构建一个全连接的神经网络来处理分类问题。

过程:

设计网络结构,包括输入层、若干隐藏层和输出层。

选择合适的激活函数,如ReLU。

定义损失函数和优化器,例如使用交叉熵损失和Adam优化器。

实现:

在PyTorch中,我定义了一个nn.Module类,通过定义forward方法来实现数据的前向传播。

在TensorFlow中,我使用Sequential API来构建模型,这是一种更简洁、更高级的方法。

以下是具体的实现代码:

PyTorch代码示例

import torch

import torch.nn as nn

import torch.optim as optim

定义一个全连接神经网络

class FullyConnectedNN(nn.Module):

def init (self):

super(FullyConnectedNN, self).init ()

self.fc1 = nn.Linear(784, 128) # 假设输入是28x28图像,展平后的大小为784

self.relu = nn.ReLU()

self.fc2 = nn.Linear(128, 10) # 假设有10个类别

复制代码
def forward(self, x):
    x = self.fc1(x)
    x = self.relu(x)
    x = self.fc2(x)
    return x

实例化模型

model = FullyConnectedNN()

定义损失函数和优化器

criterion = nn.CrossEntropyLoss()

optimizer = optim.Adam(model.parameters(), lr=0.001)

TensorFlow代码示例

import tensorflow as tf

from tensorflow.keras.models import Sequential

from tensorflow.keras.layers import Dense

定义一个全连接神经网络

model = Sequential([

Dense(128, activation='relu', input_shape=(784,)), # 假设输入是28x28图像,展平后的大小为784

Dense(10, activation='softmax') # 假设有10个类别

])

编译模型

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

在这两个实现中,我专注于构建一个相对简单的神经网络,适用于处理基本的分类问题。通过这个练习,我加深了对神经网络结构和深度学习框架的理解,并获得了实际操作的经验。

相关推荐
码界奇点5 小时前
Python从0到100一站式学习路线图与实战指南
开发语言·python·学习·青少年编程·贴图
YJlio7 小时前
Active Directory 工具学习笔记(10.8):AdInsight——保存与导出(证据留存、共享与二次分析)
数据库·笔记·学习
噗噗夹的TA之旅10 小时前
Unity Shader 学习20:URP LitForwardPass PBR 解析
学习·unity·游戏引擎·图形渲染·技术美术
AshinGau10 小时前
Softmax 与 交叉熵损失
神经网络·算法
2401_8345170710 小时前
AD学习笔记-36 gerber文件输出
笔记·学习
气π10 小时前
【JavaWeb】——(若依 + AI)-基础学习笔记
java·spring boot·笔记·学习·java-ee·mybatis·ruoyi
深蓝海拓10 小时前
PySide6从0开始学习的笔记(三) 布局管理器与尺寸策略
笔记·python·qt·学习·pyqt
暗然而日章10 小时前
C++基础:Stanford CS106L学习笔记 8 继承
c++·笔记·学习
2401_8345170710 小时前
AD学习笔记-34 PCBlogo的添加
笔记·学习
被考核重击10 小时前
浏览器原理
前端·笔记·学习