循环神经网络四-LSTM和GRU的使用

1.介绍

LSTM和GRU都是由torch.nn提供

torch.nn.LSTM(input_size,hidden_size,num_layers,batch_first,dropout,bidirectional) 其中:

1.input_size:输入数据的形状,即embedding_dim

2.hidden_size:隐藏神经元的数量,即每一层由多少个LSTM单元

3.num_layer:即RNN中LSTM的数量

4.batch_first:默认为False,输入数据需要[seq_len,batch,feature],如果为True,则为[batch,seq_len,feature]

5.dropout:dropout的比例,默认为0,dropout是一种训练过程中让部分参数随机失活的一种方式,能够提高训练速度,同时能解决过拟合的问题。这里是在LSTM的最后一层,对每个输出进行dropout

6.bidiretional:是否使用双向LSTM,默认为False

LSTM的输入:结合上一章内容,实例化LSTM的时候不仅要传入数据还要传入前一次的h_0和C_0

LSTM的输出:默认输出为output,(h_n,c_n)

1.output输出形式:(seq_len,batch,num_directions*hidden_size) 当batch_first=False时

2.h_n:(num_layers * num_directions, batch, hidden_size)

3.c_n:(num_layers * num_directions, batch, hidden_size)

二.LSTM使用示例

假设输入为input,形状为[10,20],假设embedding的形状是[100,30]

python 复制代码
import torch

batch_size=10  # 数据的条数
seq_len=20    #  没条数据的长度
embedding_dim=30  # 每条数据用多长的向量来表示
word_vocab=100   # 生成的词典中词语的总数
hidden_size=18   # 隐层中的lstm的个数
num_layer=2  # 多少个隐层

# 准备数据最小值为0最大值为一百的10行20列的数据
input=torch.randint(low=0,high=100,size=(batch_size,seq_len))
# 实例化embedding
embedding=torch.nn.Embedding(word_vocab,embedding_dim)
# 实例化LSTM
lstm=torch.nn.LSTM(embedding_dim,hidden_size,num_layer)
# 进行mebed操作
embed=embedding(input)
print(embed.size())  # torch.Size([10, 20, 30])
# 数据转化为batch_first=False的形状
embed=embed.permute(1,0,2)  # torch.Size([20, 10, 30])

# 初始化状态,如果不初始化,torch默认初始值全为0
h_0=torch.rand(num_layer,batch_size,hidden_size)  #torch.Size([2, 10, 18])

c_0=torch.rand(num_layer,batch_size,hidden_size)  #torch.Size([2, 10, 18])

output,(h_1,c_1)=lstm(embed,(h_0,c_0))  
print(output.size())  #torch.Size([20, 10, 18])
print(c_1.size())  #torch.Size([2, 10, 18])
print(h_1.size())   #torch.Size([2, 10, 18])

三.GRU的使用示例

和LSTM相同,也是从troch.nn中导入,而且参数也和LSTM相同。不同的是输入和输出

1.输入:输入的时候只用输入input和h_0,相比LSTM少了c_0

2.输出:输出两个数据output(seq_len, batch, num_directions*hidden_size),

h_n=(num_layers * num_directions, batch,hidden_size)

四.双向LSTM

如果需要使用双向LSTM,则要将实例化LSTM的过程中,将参数bidriectional设置为True,同时h_0,c_0的维度中num_layer*2

python 复制代码
import torch

batch_size=10  # 数据的条数
seq_len=20    #  没条数据的长度
embedding_dim=30  # 每条数据用多长的向量来表示
word_vocab=100   # 生成的词典中词语的总数
hidden_size=18   # 隐层中的lstm的个数
num_layer=2  # 多少个隐层

# 准备数据最小值为0最大值为一百的10行20列的数据
input=torch.randint(low=0,high=100,size=(batch_size,seq_len))
# 实例化embedding
embedding=torch.nn.Embedding(word_vocab,embedding_dim)
# 实例化LSTM,使用双向LSTM,所以bidirectional设置为True
lstm=torch.nn.LSTM(embedding_dim,hidden_size,num_layer, bidirectional=True)
# 进行mebed操作
embed=embedding(input)
print(embed.size())  # torch.Size([10, 20, 30])
# 数据转化为batch_first=False的形状
embed=embed.permute(1,0,2)  # torch.Size([20, 10, 30])

# 初始化状态,如果不初始化,torch默认初始值全为0,使用双向LSTM时,num_layer要乘2,也就是要两倍的隐藏层来实现双向
h_0=torch.rand(num_layer*2,batch_size,hidden_size)  #torch.Size([2, 10, 18])

c_0=torch.rand(num_layer*2,batch_size,hidden_size)  #torch.Size([2, 10, 18])

output,(h_1,c_1)=lstm(embed,(h_0,c_0))  
print(output.size())  #torch.Size([20, 10, 18])
print(c_1.size())  #torch.Size([2, 10, 18])
print(h_1.size())   #torch.Size([2, 10, 18])
相关推荐
User_芊芊君子1 分钟前
CANN数学计算基石ops-math深度解析:高性能科学计算与AI模型加速的核心引擎
人工智能·深度学习·神经网络·ai
小白|4 分钟前
CANN与联邦学习融合:构建隐私安全的分布式AI推理与训练系统
人工智能·机器学习·自动驾驶
艾莉丝努力练剑12 分钟前
hixl vs NCCL:昇腾生态通信库的独特优势分析
运维·c++·人工智能·cann
梦帮科技13 分钟前
Node.js配置生成器CLI工具开发实战
前端·人工智能·windows·前端框架·node.js·json
程序员泠零澪回家种桔子15 分钟前
Spring AI框架全方位详解
java·人工智能·后端·spring·ai·架构
Echo_NGC223717 分钟前
【FFmpeg 使用指南】Part 3:码率控制策略与质量评估体系
人工智能·ffmpeg·视频·码率
纤纡.27 分钟前
PyTorch 入门精讲:从框架选择到 MNIST 手写数字识别实战
人工智能·pytorch·python
大大大反派29 分钟前
CANN 生态中的自动化部署引擎:深入 `mindx-sdk` 项目构建端到端 AI 应用
运维·人工智能·自动化
程序猿追29 分钟前
深度解读 AIR (AI Runtime):揭秘 CANN 极致算力编排与调度的核心引擎
人工智能
2601_9495936534 分钟前
深入解析CANN-acl应用层接口:构建高效的AI应用开发框架
数据库·人工智能