mxnet.gluon.rnn及mxnet.symbol实现LSTM教程

基于mxnet.symbol的基本使用以及模型加载与保存
mxnet基本使用以及模型加载与保存
mxnet.symbolRNN-GRU-LSTM-Bi官网教程
基于mxnet的LSTM实现(mx.rnn.LSTMCell+symbol)

基于mxnet.gluon.rnn的基本使用以及模型加载与保存
LSTM Mxnet Implementation-手写
mxnet.gluon.rnn.LSTM中文教程
mxnet.gluon.rnn.GRU官网教程

模型导出

python 复制代码
import mxnet as mx
hidden_size = 128
num_layer = 2
word_emb_dim = 128
seq_len = 64
layer = mx.gluon.rnn.GRU(hidden_size, num_layer, bidirectional=True, )
layer.initialize()
# seq_len = 5 batch_size = 3 input_size = 128
input = mx.nd.random.uniform(shape=(seq_len, 3, word_emb_dim))
# by default zeros are used as begin state
output = layer(input)
# manually specify begin state.
# num_layers = 6 batch_size = 3 num_hidden = 128
h0 = mx.nd.random.uniform(shape=(num_layer*2, 3, hidden_size))
output, hn = layer(input, h0)
# 模型保存
layer.export('model')
# 模型加载
sym = mx.sym.load('model-symbol.json')
mod = mx.mod.Module(symbol=sym, context=mx.cpu(), label_names=None)
mod.bind(data_shapes=[('data', (5, 3, hidden_size))])
mod.load_params('model-0000.params')
print('Load Successfully!')

MXNet/Gluon:网络和参数的存取方式

相关推荐
正宗咸豆花18 小时前
RNN(循环神经网络)原理与结构
人工智能·rnn·深度学习
KingDol_MIni3 天前
Transformer-LSTM混合模型在时序回归中的完整流程研究
回归·lstm·transformer
拓端研究室TRL4 天前
CNN-LSTM、GRU、XGBoost、LightGBM风电健康诊断、故障与中国银行股票预测应用实例
人工智能·神经网络·cnn·gru·lstm
weixin_445238124 天前
第R8周:RNN实现阿尔兹海默病诊断(pytorch)
人工智能·pytorch·rnn
KingDol_MIni5 天前
transformer➕lstm训练回归模型
回归·lstm·transformer
灏瀚星空6 天前
深度学习之LSTM时序预测:策略原理深度解析及可视化实现
python·深度学习·神经网络·算法·机器学习·数学建模·lstm
灏瀚星空6 天前
深度学习之LSTM时序预测入门指南:从原理到实战
人工智能·python·深度学习·神经网络·机器学习·数学建模·lstm
coder_zrx7 天前
【神经网络、Transformer及模型微调】
人工智能·rnn·神经网络·自然语言处理·cnn·lstm·transformer
Francek Chen8 天前
【现代深度学习技术】现代循环神经网络07:序列到序列学习(seq2seq)
人工智能·pytorch·rnn·深度学习·神经网络·序列