深度学习之pytorch 中 torch.nn介绍

1. torch.nn 介绍

pytorch 中必用的包就是 torch.nn,torch.nn 中按照功能分,主要如下有几类:

  1. Layers(层):包括全连接层、卷积层、池化层等。

  2. Activation Functions(激活函数):包括ReLU、Sigmoid、Tanh等。

  3. Loss Functions(损失函数):包括交叉熵损失、均方误差等。

  4. Optimizers(优化器):包括SGD、Adam、RMSprop等。

  5. Initialization Functions(初始化函数):包括Xavier初始化、He初始化等。

  6. Utilities(实用工具):包括数据处理的函数、模型构建的函数等。

2. Layers(层):

2.1 全连接层

在 `torch.nn` 中,全连接层的函数主要包括以下几个:

  1. `torch.nn.Linear(in_features, out_features, bias=True)`: 创建一个线性层,其中in_features是输入特征的大小,out_features是输出特征的大小,bias表示是否使用偏置。

  2. `torch.nn.Bilinear(in1_features, in2_features, out_features, bias=True)`: 创建一个双线性层,用于计算两组输入之间的双线性操作。

这些函数用于创建神经网络中的全连接层,其中 `torch.nn.Linear` 是应用最广泛的全连接层函数。

2.2 卷积层

在 `torch.nn` 中,卷积层的函数主要包括以下几个:

  1. `torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)`: 创建一维卷积层。

  2. `torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)`: 创建二维卷积层。

  3. `torch.nn.Conv3d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)`: 创建三维卷积层。

这些函数用于创建神经网络中的卷积层。

2.3 池化层

在 `torch.nn` 中,池化层的函数主要包括以下几个:

  1. `torch.nn.MaxPool1d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)`: 创建一维最大池化层。

  2. `torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)`: 创建二维最大池化层。

  3. `torch.nn.MaxPool3d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)`: 创建三维最大池化层。

  4. `torch.nn.AvgPool1d(kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True)`: 创建一维平均池化层。

  5. `torch.nn.AvgPool2d(kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True, divisor_override=None)`: 创建二维平均池化层。

  6. `torch.nn.AvgPool3d(kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True, divisor_override=None)`: 创建三维平均池化层。

这些函数用于创建神经网络中的不同类型的池化层。

3. Activation Functions(激活函数)

在 `torch.nn` 中,常见的激活函数包括:

  1. `torch.nn.ReLU`: ReLU激活函数。

  2. `torch.nn.ReLU6`: 限制线性整流激活函数,将负值截断为0,将正值截断为6。

  3. `torch.nn.ELU`: 指数线性单元激活函数。

  4. `torch.nn.Sigmoid`: Sigmoid激活函数。

  5. `torch.nn.Tanh`: 双曲正切激活函数。

  6. `torch.nn.Softmax`: Softmax激活函数,常用于多分类问题。

这些激活函数可用于神经网络的不同层中,以引入非线性特性和增加网络的表达能力。

4. Loss Functions(损失函数)

在 `torch.nn` 中,常见的损失函数包括:

  1. `torch.nn.MSELoss`: 均方误差损失函数,用于回归问题。

  2. `torch.nn.L1Loss`: 平均绝对误差损失函数,也用于回归问题。

  3. `torch.nn.CrossEntropyLoss`: 交叉熵损失函数,通常用于多分类问题。

  4. `torch.nn.NLLLoss`: 负对数似然损失函数,结合了LogSoftmax和负对数似然损失,通常用于多分类问题。

  5. `torch.nn.BCELoss`: 二元交叉熵损失函数,通常用于二分类问题。

  6. `torch.nn.BCEWithLogitsLoss`: 结合了Sigmoid和二元交叉熵损失的函数,通常用于二分类问题。

这些损失函数可以帮助定义神经网络的训练目标,并用于计算预测值与真实标签之间的误差。

5、Optimizers(优化器)

在 `torch.nn` 中,常见的优化器函数包括:

  1. `torch.optim.SGD`: 随机梯度下降优化器。

  2. `torch.optim.Adam`: Adam优化器,结合了动量和自适应学习率。

  3. `torch.optim.Adagrad`: 自适应学习率优化器。

  4. `torch.optim.RMSprop`: RMSprop优化器,结合了动量和自适应学习率。

  5. `torch.optim.Adadelta`: Adadelta优化器,自适应学习率方法之一。

  6. `torch.optim.Adamax`: Adamax优化器,基于Adam算法的变种。

这些优化器函数可用于调整神经网络的参数以最小化定义的损失函数,从而实现模型的训练和优化。

6. Initialization Functions(初始化函数)

在 `torch.nn` 中,常见的初始化函数包括:

  1. `torch.nn.init.uniform_`: 均匀分布初始化。

  2. `torch.nn.init.normal_`: 正态分布初始化。

  3. `torch.nn.init.constant_`: 常数初始化。

  4. `torch.nn.init.eye_`: 单位矩阵初始化。

  5. `torch.nn.init.xavier_uniform_`: Xavier均匀分布初始化。

  6. `torch.nn.init.xavier_normal_`: Xavier正态分布初始化。

  7. `torch.nn.init.kaiming_uniform_`: Kaiming均匀分布初始化(用于ReLU激活函数)。

  8. `torch.nn.init.kaiming_normal_`: Kaiming正态分布初始化(用于ReLU激活函数)。

这些初始化函数可用于初始化神经网络的权重和偏置,以帮助训练神经网络时更好地收敛和避免梯度消失或梯度爆炸等问题。

7. Utilities(实用工具)

在 `torch.nn` 中,有一些实用的工具函数,包括但不限于:

  1. `torch.nn.functional.conv2d`: 二维卷积操作。

  2. `torch.nn.functional.linear`: 线性变换,等同于全连接层。

  3. `torch.nn.functional.relu`: ReLU激活函数。

  4. `torch.nn.functional.max_pool2d`: 二维最大池化操作。

  5. `torch.nn.functional.dropout`: 随机失活操作。

  6. `torch.nn.functional.cross_entropy`: 交叉熵损失函数。

  7. `torch.nn.functional.mse_loss`: 均方误差损失函数。

  8. `torch.nn.functional.softmax`: softmax函数,常用于多分类问题。

这些工具函数提供了在神经网络中常见的操作,用于构建神经网络结构和定义损失函数。

8、其他

8.1 torch.nn.Conv2d 与 torch.nn.functional.conv2d 的区别

`torch.nn.Conv2d` 是一个类,用于创建二维卷积层,它是 PyTorch 中的一个模块。而 `torch.nn.functional.conv2d` 是一个函数,用于执行二维卷积操作。

区别在于:

  • `torch.nn.Conv2d` 是一个类,它是一个包含可学习参数的卷积层,可以包含权重和偏置项,并且具有其他卷积层相关的属性和方法。

  • `torch.nn.functional.conv2d` 是一个函数,它执行卷积操作,但是它不包含可学习的参数,需要手动输入卷积核和偏置项,通常用于在自定义的网络结构或者函数中执行卷积操作。

以下是它们的使用示例:

使用 `torch.nn.Conv2d` 创建一个简单的卷积层:

python 复制代码
import torch
import torch.nn as nn
# 创建一个二维卷积层
conv_layer = nn.Conv2d(in_channels=3, out_channels=16, kernel_size=3, stride=1, padding=1)
# 定义输入数据
input_data = torch.randn(1, 3, 32, 32)  # (batch_size, channels, height, width)
# 通过卷积层进行前向传播
output = conv_layer(input_data)
print(output.shape)  # 输出结果的形状

使用 `torch.nn.functional.conv2d` 执行二维卷积操作:

python 复制代码
import torch
import torch.nn.functional as F
# 定义输入数据
input_data = torch.randn(1, 3, 32, 32)  # (batch_size, channels, height, width)
# 定义卷积核
weight = torch.randn(16, 3, 3, 3)  # (out_channels, in_channels, kernel_height, kernel_width)
# 执行二维卷积操作
output = F.conv2d(input_data, weight, bias=None, stride=1, padding=1)
print(output.shape)  # 输出结果的形状

8.2 torch.nn.Linear 与torch.nn.functional.linear的区别

`torch.nn.Linear` 是一个类,用于创建全连接层(也称为线性层),它是 PyTorch 中的一个模块。而 `torch.nn.functional.linear` 是一个函数,用于执行线性变换操作。

区别在于:

  • `torch.nn.Linear` 是一个类,它是一个包含可学习参数的全连接层,可以包含权重和偏置项,并且具有其他全连接层相关的属性和方法。

  • `torch.nn.functional.linear` 是一个函数,它执行线性变换操作,但是它不包含可学习的参数,需要手动输入权重和偏置项,通常用于在自定义的网络结构或者函数中执行线性变换操作。

下面是它们的使用示例:

使用 `torch.nn.Linear`:

python 复制代码
import torch
import torch.nn as nn
# 创建一个线性变换模块
linear_module = nn.Linear(in_features=5, out_features=3)
# 构造输入张量
input_data = torch.randn(2, 5)  # 2个样本,每个样本5个特征
# 应用线性变换
output = linear_module(input_data)

使用 `torch.nn.functional.linear`:

python 复制代码
import torch
import torch.nn.functional as F
# 构造输入张量和权重
input_data = torch.randn(2, 5)  # 2个样本,每个样本5个特征
weight = torch.randn(3, 5)      # 权重矩阵
# 应用线性变换
output = F.linear(input_data, weight)

在这两个示例中,都创建了输入数据并应用了线性变换,但是 `torch.nn.Linear`更适合用于创建神经网络模型,而 `torch.nn.functional.linear` 更适合在自定义的前向传播函数中使用。

相关推荐
江畔柳前堤5 小时前
CV01_相机成像原理与坐标系之间的转换
人工智能·深度学习·数码相机·机器学习·计算机视觉·lstm
qq_526099135 小时前
为什么要在成像应用中使用图像采集卡?
人工智能·数码相机·计算机视觉
码上飞扬5 小时前
深度解析:机器学习与深度学习的关系与区别
人工智能·深度学习·机器学习
super_Dev_OP6 小时前
Web3 ETF的主要功能
服务器·人工智能·信息可视化·web3
Sui_Network6 小时前
探索Sui的面向对象模型和Move编程语言
大数据·人工智能·学习·区块链·智能合约
别致的SmallSix6 小时前
集成学习(一)Bagging
人工智能·机器学习·集成学习
LNTON羚通6 小时前
视频共享融合赋能平台LnyonCVS国标视频监控平台包含哪些功能
大数据·网络·人工智能·算法·音视频
实在智能RPA6 小时前
华为昇腾×实在智能:让国产AI科技实实在在“飞得更高”
人工智能·科技·华为·实在智能·agent智能体
逆境清醒6 小时前
开源数据科学平台Anaconda简介
人工智能·python·深度学习·机器学习·anaconda
中电金信7 小时前
中电金信:加快企业 AI 平台升级,构建金融智能业务新引擎
人工智能