【Pytorch】nn.RNN、nn.LSTM 和 nn.GRU的输入和输出形状

nn.RNN、nn.LSTM 和 nn.GRU的输入和输出形状

输入形状

通用输入参数

这三个模块通常接收以下两种形式的输入:

  • 输入序列 :形状为 (seq_len, batch_size, input_size)
    • seq_len:表示序列的长度,即时间步的数量。例如在处理文本时,它可以是句子的单词数量;在处理时间序列数据时,它可以是时间点的数量。
    • batch_size:表示每次输入的样本数量。在训练模型时,通常会将多个样本组成一个批次进行处理,以提高计算效率。
    • input_size:表示每个时间步输入的特征维度。例如,在处理图像序列时,它可以是图像的特征向量维度;在处理文本时,它可以是词向量的维度。
  • 初始隐藏状态 :形状为 (num_layers * num_directions, batch_size, hidden_size)
    • num_layers:表示 RNN 层数。如果设置为多层 RNN,信息会在不同层之间依次传递。
    • num_directions:表示 RNN 的方向数,取值为 1(单向 RNN)或 2(双向 RNN)。双向 RNN 会同时考虑序列的正向和反向信息。
    • hidden_size:表示隐藏层的维度,即每个时间步输出的隐藏状态的特征数量。
特殊情况(LSTM)

对于 nn.LSTM,除了初始隐藏状态外,还需要一个初始细胞状态,其形状与初始隐藏状态相同,即 (num_layers * num_directions, batch_size, hidden_size)

输出形状

nn.RNN 和 nn.GRU
  • 输出序列 :形状为 (seq_len, batch_size, num_directions * hidden_size)。它包含了每个时间步的隐藏状态输出,其中 num_directions 取决于 RNN 是否为双向。如果是单向 RNN,num_directions 为 1;如果是双向 RNN,num_directions 为 2,输出的特征维度会翻倍。
  • 最终隐藏状态 :形状为 (num_layers * num_directions, batch_size, hidden_size)。它表示最后一个时间步的隐藏状态,用于后续的任务,如分类或预测。
nn.LSTM
  • 输出序列 :形状同样为 (seq_len, batch_size, num_directions * hidden_size),含义与 nn.RNNnn.GRU 的输出序列类似。
  • 最终隐藏状态和细胞状态 :最终隐藏状态和细胞状态的形状均为 (num_layers * num_directions, batch_size, hidden_size)。最终隐藏状态和细胞状态一起保存了 LSTM 在最后一个时间步的信息。

代码示例

python 复制代码
import torch
import torch.nn as nn

# 定义参数
input_size = 10
hidden_size = 20
num_layers = 2
batch_size = 3
seq_len = 5
num_directions = 1  # 单向 RNN

# 创建 RNN 模型
rnn = nn.RNN(input_size, hidden_size, num_layers)
# 创建 LSTM 模型
lstm = nn.LSTM(input_size, hidden_size, num_layers)
# 创建 GRU 模型
gru = nn.GRU(input_size, hidden_size, num_layers)

# 生成随机输入序列
input_seq = torch.randn(seq_len, batch_size, input_size)
# 初始化隐藏状态
h0 = torch.randn(num_layers * num_directions, batch_size, hidden_size)

# 运行 RNN
rnn_output, hn_rnn = rnn(input_seq, h0)
print("RNN 输出序列形状:", rnn_output.shape)
print("RNN 最终隐藏状态形状:", hn_rnn.shape)

# 初始化 LSTM 的细胞状态
c0 = torch.randn(num_layers * num_directions, batch_size, hidden_size)
# 运行 LSTM
lstm_output, (hn_lstm, cn_lstm) = lstm(input_seq, (h0, c0))
print("LSTM 输出序列形状:", lstm_output.shape)
print("LSTM 最终隐藏状态形状:", hn_lstm.shape)
print("LSTM 最终细胞状态形状:", cn_lstm.shape)

# 运行 GRU
gru_output, hn_gru = gru(input_seq, h0)
print("GRU 输出序列形状:", gru_output.shape)
print("GRU 最终隐藏状态形状:", hn_gru.shape)

在上述代码中,我们定义了输入序列和初始隐藏状态,并分别使用 nn.RNNnn.LSTMnn.GRU 对输入序列进行处理,最后打印出它们的输出形状,帮助你更好地理解输入输出形状的特点。

相关推荐
简简单单做算法17 小时前
基于CNN卷积神经网络的数据预测matlab仿真,对比BP,RBF,LSTM
matlab·cnn·卷积神经网络·lstm·数据预测
憨波个19 小时前
【说话人日志】从 LSTM attractor 到 Transformer attractor:EEND-TA
人工智能·深度学习·lstm·transformer·音频·语音识别
独隅20 小时前
PyTorch 分布式训练完整指南:策略、实现与模型选型
人工智能·pytorch·分布式
沪漂阿龙20 小时前
卷积神经网络(CNN)零基础通关指南:原理、图解与PyTorch实战
人工智能·pytorch·cnn
机器学习之心1 天前
ICEEMDAN-CMBE特征提取+Bayes-TCN-LSTM故障诊断+SHAP可解释分析!MATLAB完整代码
matlab·lstm
我不是小upper1 天前
时间序列短期预测核心:自回归 (AR) 模型原理与实战详解
人工智能·数据挖掘·回归·lstm
龙文浩_2 天前
AI中NLP的注意力机制的计算公式解析
人工智能·pytorch·深度学习·神经网络·自然语言处理
断眉的派大星2 天前
pytorch中链式法则求解梯度
人工智能·pytorch·python
龙文浩_2 天前
AI中NLP的深入浅出注意力机制 Seq2Seq 模型
人工智能·pytorch·深度学习·神经网络·自然语言处理
沃恩智慧2 天前
顶刊热门选题!PINN+LSTM,预测精度大幅提升!!
深度学习·机器学习·lstm