rnn词嵌入层

RNN词嵌入层的作用

词嵌入层(Embedding Layer)在RNN中负责将离散的单词符号映射为连续的向量表示,将高维稀疏的one-hot编码转换为低维稠密的向量。这种表示能捕捉单词的语义和语法特征,提升模型对文本的理解能力。

词嵌入层的实现方式

Keras/PyTorch中的嵌入层

通过框架提供的Embedding类实现,需指定词汇表大小(vocab_size)、嵌入维度(embedding_dim)和输入长度(input_length)。

python 复制代码
# Keras示例
from tensorflow.keras.layers import Embedding

embedding_layer = Embedding(
    input_dim=vocab_size,  # 词汇表大小
    output_dim=embedding_dim,  # 嵌入维度(如100、300)
    input_length=max_seq_len  # 输入序列长度
)
python 复制代码
# PyTorch示例
import torch.nn as nn

embedding_layer = nn.Embedding(
    num_embeddings=vocab_size,  # 词汇表大小
    embedding_dim=embedding_dim  # 嵌入维度
)

预训练词嵌入的使用

预训练词向量(如Word2Vec、GloVe)可直接加载到嵌入层,提升模型效果:

python 复制代码
# 加载GloVe词向量到Keras嵌入层
embedding_matrix = np.zeros((vocab_size, embedding_dim))
for word, i in word_index.items():
    if word in glove_model:
        embedding_matrix[i] = glove_model[word]

embedding_layer = Embedding(
    input_dim=vocab_size,
    output_dim=embedding_dim,
    weights=[embedding_matrix],
    trainable=False  # 是否微调
)

词嵌入层的训练

  • 随机初始化:嵌入层通常随模型一起训练,初始值为随机分布(如正态分布)。
  • 微调预训练向量 :设置trainable=True可在训练中调整预训练词向量的权重。

注意事项

  • 词汇表覆盖 :确保生僻词或未登录词(OOV)有合理的处理方式(如<UNK>标记)。
  • 维度选择:嵌入维度通常为50-300,需权衡计算成本与语义表达能力。
  • 序列填充:输入序列需统一长度,过短填充、过长截断。

与RNN的结合

词嵌入层的输出作为RNN的输入,形状为(batch_size, sequence_length, embedding_dim),供后续LSTM/GRU层处理时序依赖。

python 复制代码
# Keras示例
model = Sequential([
    Embedding(vocab_size, embedding_dim, input_length=max_seq_len),
    LSTM(units=64),
    Dense(1, activation='sigmoid')
])
相关推荐
CyanMind17 小时前
IsaacLab 训练范式探索(一):让机器人拥有“记忆”的 RNN 策略
人工智能·rnn·机器人
(; ̄ェ ̄)。3 天前
深度学习入门(十)RNN、LSTM、GRU
人工智能·rnn·深度学习
Learn Beyond Limits7 天前
循环神经网络的问题:梯度消失与梯度爆炸|Problems with RNNs: Vanishing and Exploding Gradients
人工智能·rnn·深度学习·神经网络·机器学习·自然语言处理·nlp
Flying pigs~~7 天前
深入浅出RNN及其变体:从传统RNN到LSTM、GRU
人工智能·rnn·深度学习·gru·nlp·lstm·循环神经网络
阿拉斯攀登9 天前
记忆的困境:RNN 与 LSTM 的底层逻辑
人工智能·rnn·深度学习·ai·大模型·llm·lstm
L-影9 天前
AI中的Transformer:从RNN的困境到横扫一切的革命(下篇)
人工智能·rnn·ai·transformer
Dfreedom.10 天前
从“阅读小说”到循环网络:一篇搞懂循环神经网络(RNN)
人工智能·rnn·深度学习·神经网络
L-影10 天前
AI中的Transformer:从RNN的困境到横扫一切的革命(上篇)
人工智能·rnn·ai·transformer
Shining059610 天前
推理引擎方向(二)《大模型原理与结构》
人工智能·rnn·深度学习·学习·其他·大模型·infinitensor
Flying pigs~~10 天前
深度学习之循环神经网络RNN
人工智能·rnn·深度学习·自然语言处理·循环神经网络