[自然语言处理]RNN

1 传统RNN模型与LSTM

python 复制代码
import torch
import torch.nn as nn

torch.manual_seed(6)


# todo:基础RNN模型
def dem01():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.RNN(5, 6, 1)
    '''
    参数1:sequence_length 每个样本的句子长度
    参数2:batch_size 每个批次的样本数量
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(1, 3, 5)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    h0 = torch.randn(1, 3, 6)
    output, hn = rnn(input, h0)
    print(f'output {output}')
    print(f'hn {hn}')
    print(f'RNN模型 {rnn}')


# todo:增加输入的sequence_length
def dem02():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.RNN(5, 6, 1)
    '''
    参数1:sequence_length 每个样本的句子长度
    参数2:batch_size 每个批次的样本数量
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(4, 3, 5)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    h0 = torch.randn(1, 3, 6)
    output, hn = rnn(input, h0)
    print(f'output {output}')
    print(f'hn {hn}')
    print(f'RNN模型 {rnn}')


# todo:增加隐藏层的个数
def dem03():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.RNN(5, 6, 2)
    '''
    参数1:sequence_length 每个样本的句子长度
    参数2:batch_size 每个批次的样本数量
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(4, 3, 5)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    h0 = torch.randn(2, 3, 6)
    output, hn = rnn(input, h0)
    print(f'output {output}')
    print(f'hn {hn}')
    print(f'RNN模型 {rnn}')


# todo:一个一个地向模型输入单词-全零初始化
def dem04_1():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.RNN(5, 6, 1)
    '''
    参数1:sequence_length 每个样本的句子长度
    参数2:batch_size 每个批次的样本数量
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(4, 1, 5)
    print(f'input {input}')
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    # 每个样本一次性输入神经网络
    hn = torch.zeros(1, 1, 6)
    print(f'hn1 {hn}')
    output, hn = rnn(input, hn)
    print(f'output1 {output}')
    print(f'hn1 {hn}')
    print(f'RNN模型1 {rnn}')
    print('*' * 80)
    # 每个样本逐词送入神经网络
    hn = torch.zeros(1, 1, 6)
    print(f'hn2 {hn}')
    for i in range(4):
        tmp = input[i][0]
        print(f'tmp.shape {tmp.shape}')
        output, hn = rnn(tmp.unsqueeze(0).unsqueeze(0), hn)
        print(f'{i}-output {output}')
        print(f'{i}-hn {hn}')


# todo:一个一个地向模型输入单词-全一初始化
def dem04_2():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.RNN(5, 6, 1)
    '''
    参数1:sequence_length 每个样本的句子长度
    参数2:batch_size 每个批次的样本数量
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(4, 1, 5)
    print(f'input {input}')
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    # 每个样本一次性输入神经网络
    hn = torch.ones(1, 1, 6)
    print(f'hn1 {hn}')
    output, hn = rnn(input, hn)
    print(f'output1 {output}')
    print(f'hn1 {hn}')
    print(f'RNN模型1 {rnn}')
    print('*' * 80)
    # 每个样本逐词送入神经网络
    hn = torch.ones(1, 1, 6)
    print(f'hn2 {hn}')
    for i in range(4):
        tmp = input[i][0]
        print(f'tmp.shape {tmp.shape}')
        output, hn = rnn(tmp.unsqueeze(0).unsqueeze(0), hn)
        print(f'{i}-output {output}')
        print(f'{i}-hn {hn}')


# todo:一个一个地向模型输入单词-随机初始化
def dem04_3():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.RNN(5, 6, 1)
    '''
    参数1:sequence_length 每个样本的句子长度
    参数2:batch_size 每个批次的样本数量
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(4, 1, 5)
    print(f'input {input}')
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    # 每个样本一次性输入神经网络
    hn = torch.randn(1, 1, 6)
    print(f'hn1 {hn}')
    output, hn = rnn(input, hn)
    print(f'output1 {output}')
    print(f'hn1 {hn}')
    print(f'RNN模型1 {rnn}')
    print('*' * 80)
    # 每个样本逐词送入神经网络
    hn = torch.randn(1, 1, 6)
    print(f'hn2 {hn}')
    for i in range(4):
        tmp = input[i][0]
        print(f'tmp.shape {tmp.shape}')
        output, hn = rnn(tmp.unsqueeze(0).unsqueeze(0), hn)
        print(f'{i}-output {output}')
        print(f'{i}-hn {hn}')


# todo:设置batch_first=True
def dem05():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.RNN(5, 6, 1, batch_first=True)
    '''
    参数1:batch_size 每个批次的样本数量
    参数2:sequence_length 每个样本的句子长度
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(3, 4, 5)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    h0 = torch.randn(1, 3, 6)
    output, hn = rnn(input, h0)
    print(f'output {output}')
    print(f'hn {hn}')
    print(f'RNN模型 {rnn}')


# todo:基础LSTM模型
def dem06_1():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.LSTM(5, 6, 2)
    '''
    参数1:batch_size 每个批次的样本数量
    参数2:sequence_length 每个样本的句子长度
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(1, 3, 5)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    h0 = torch.randn(2, 3, 6)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    c0 = torch.randn(2, 3, 6)
    output, (hn, cn) = rnn(input, (h0, c0))
    print(f'output {output}')
    print(f'hn {hn}')
    print(f'cn {cn}')

# todo:双向LSTM模型
def dem06_2():
    '''
    参数1:input_size 每个词的词向量维度(输入层神经元的个数)
    参数2:hidden_size 隐藏层神经元的个数
    参数3:hidden_layer 隐藏层的层数
    '''
    rnn = nn.LSTM(5, 6, 2,bidirectional=True)
    '''
    参数1:batch_size 每个批次的样本数量
    参数2:sequence_length 每个样本的句子长度
    参数3:input_size 每个词的词向量维度(输入层神经元的个数)
    '''
    input = torch.randn(1, 3, 5)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    h0 = torch.randn(4, 3, 6)
    '''
    参数1:hidden_layer 隐藏层的层数
    参数2:batch_size 每个批次的样本数量
    参数3:hidden_size 隐藏层神经元的个数
    '''
    c0 = torch.randn(4, 3, 6)
    output, (hn, cn) = rnn(input, (h0, c0))
    print(f'output {output}')
    print(f'hn {hn}')
    print(f'cn {cn}')


if __name__ == '__main__':
    # dem01()
    # dem02()
    # dem03()
    # dem04_1()
    # dem04_2()
    # dem04_3()
    # dem05()
    # dem06_1()
    dem06_2()
bash 复制代码
D:\nlplearning\nlpbase\python.exe D:\nlpcoding\rnncode.py 
output tensor([[[ 0.0207, -0.1121, -0.0706,  0.1167, -0.3322, -0.0686],
         [ 0.1256,  0.1328,  0.2361,  0.2237, -0.0203, -0.2709],
         [-0.2668, -0.2721, -0.2168,  0.4734,  0.2420,  0.0349]]],
       grad_fn=<MkldnnRnnLayerBackward0>)
hn tensor([[[ 0.1501, -0.2106,  0.0213,  0.1309,  0.3074, -0.2038],
         [ 0.3639, -0.0394, -0.1912,  0.1282,  0.0369, -0.1094],
         [ 0.1217, -0.0517,  0.1884, -0.1100, -0.5018, -0.4512]],

        [[ 0.0207, -0.1121, -0.0706,  0.1167, -0.3322, -0.0686],
         [ 0.1256,  0.1328,  0.2361,  0.2237, -0.0203, -0.2709],
         [-0.2668, -0.2721, -0.2168,  0.4734,  0.2420,  0.0349]]],
       grad_fn=<StackBackward0>)
cn tensor([[[ 0.2791, -0.7362,  0.0501,  0.2612,  0.4655, -0.2338],
         [ 0.7902, -0.0920, -0.4955,  0.3865,  0.0868, -0.1612],
         [ 0.2312, -0.3736,  0.4033, -0.1386, -1.0151, -0.5971]],

        [[ 0.0441, -0.2279, -0.1483,  0.3397, -0.5597, -0.4339],
         [ 0.2154,  0.4119,  0.4723,  0.4731, -0.0284, -1.1095],
         [-0.5016, -0.5146, -0.4286,  1.5299,  0.5992,  0.1224]]],
       grad_fn=<StackBackward0>)

Process finished with exit code 0

2 GRU

python 复制代码
import torch
import torch.nn as nn


# todo:基础GRU
def dem01():
    gru = nn.GRU(5, 6, 1)
    input = torch.randn(4, 3, 5)
    h0 = torch.randn(1, 3, 6)
    output, hn = gru(input, h0)
    print(f'output {output}')
    print(f'hn {hn}')


if __name__ == '__main__':
    dem01()
相关推荐
CoovallyAIHub1 天前
仿生学突破:SILD模型如何让无人机在电力线迷宫中发现“隐形威胁”
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
Le-DETR:省80%预训练数据,这个实时检测Transformer刷新SOTA|Georgia Tech & 北交大
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
强化学习凭什么比监督学习更聪明?RL的“聪明”并非来自算法,而是因为它学会了“挑食”
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
YOLO-IOD深度解析:打破实时增量目标检测的三重知识冲突
深度学习·算法·计算机视觉
用户1474853079742 天前
AI-动手深度学习环境搭建-d2l
深度学习
OpenBayes贝式计算2 天前
解决视频模型痛点,TurboDiffusion 高效视频扩散生成系统;Google Streetview 涵盖多个国家的街景图像数据集
人工智能·深度学习·机器学习
OpenBayes贝式计算2 天前
OCR教程汇总丨DeepSeek/百度飞桨/华中科大等开源创新技术,实现OCR高精度、本地化部署
人工智能·深度学习·机器学习
在人间耕耘3 天前
HarmonyOS Vision Kit 视觉AI实战:把官方 Demo 改造成一套能长期复用的组件库
人工智能·深度学习·harmonyos
homelook3 天前
Transformer与电池管理系统(BMS)的结合是当前 智能电池管理 的前沿研究方向
人工智能·深度学习·transformer