nn.Embedding

在这个代码片段中,TokenEmbedding 类继承了 torch.nn.Embedding 类,并在 __init__ 方法中通过调用 super(TokenEmbedding, self).__init__(vocab_size, d_model, padding_idx=1) 来初始化父类 nn.Embedding。由于 TokenEmbedding 没有定义新的方法,默认情况下它会使用 nn.Embedding 的行为来提供返回值。

nn.Embedding 的行为

nn.Embedding 是一个嵌入层,用于将词汇表中的单词映射为稠密的向量表示。它的作用是查找输入索引对应的嵌入向量,具体步骤如下:

  1. 当你传入词汇的索引(整数)时,它会从权重矩阵中查找对应的嵌入向量。
  2. 它不需要定义一个显式的 forward 方法,因为调用 nn.Embedding 实例时,自动会执行这个查找操作。

使用方式

  1. 实例化 TokenEmbedding :实例化时会初始化一个嵌入矩阵,矩阵的维度是 vocab_size x d_model,其中 vocab_size 是词汇表的大小,d_model 是每个单词的向量维度。

  2. 调用实例:传入单词索引(整数序列),实例会返回对应的嵌入向量。

示例:

python 复制代码
import torch
import torch.nn as nn

class TokenEmbedding(nn.Embedding):
    def __init__(self, vocab_size, d_model):
        super(TokenEmbedding, self).__init__(vocab_size, d_model, padding_idx=1)

# 假设词汇表大小为 100,嵌入维度为 64
vocab_size = 100
d_model = 64

# 实例化 TokenEmbedding
embedding_layer = TokenEmbedding(vocab_size, d_model)

# 创建输入张量,表示单词的索引
input_indices = torch.LongTensor([2, 5, 10])

# 调用实例,将词汇索引转换为嵌入向量
output = embedding_layer(input_indices)
print(output.shape)  # 输出形状为 (3, 64),因为输入中有 3 个单词,每个单词的嵌入向量是 64 维

解释:

  • vocab_size: 词汇表的大小,即可以表示多少个不同的单词。
  • d_model: 每个单词的嵌入向量的维度。
  • padding_idx=1: 用于指定填充标记的索引,通常是为了忽略填充标记在训练中的影响。

在这个类中,TokenEmbedding 类实际上没有显式返回值的方法,但是通过调用 __call__ 方法(继承自 nn.Embedding),它会查找并返回对应的嵌入向量。

相关推荐
Be reborn12 小时前
用 Playwright 做自动化测试:如何验证网络请求并做断言
网络·python·自动化·pytest
u01102251213 小时前
如何自定义查询历史记录面板的展示风格_时间轴样式设计
jvm·数据库·python
2301_7693406713 小时前
HTML怎么实现快捷跳转顶部_HTML固定悬浮锚点按钮【介绍】
jvm·数据库·python
DogDaoDao13 小时前
【GitHub】Ruflo:面向 Claude Code 的企业级多智能体编排平台深度解析
人工智能·深度学习·大模型·github·ai编程·claude·ruflo
yuanpan13 小时前
Python + PyAutoGUI 实战:Windows 自动化办公脚本开发入门
windows·python·自动化
m0_6091604913 小时前
MySQL如何限制触发器递归调用的深度_防止触发器死循环方法
jvm·数据库·python
zhonghaoxincekj13 小时前
轴距可调式元器件双边无损成形钳
经验分享·科技·深度学习·学习·测试工具·创业创新·制造
zjy2777713 小时前
Golang bcrypt如何加密密码_Golang密码加密教程【收藏】
jvm·数据库·python
老纪13 小时前
Redis怎样利用Lua为多个Key同步续期
jvm·数据库·python
2403_8832610913 小时前
C#怎么计算两个日期的差值_C#如何处理时间跨度【笔记】
jvm·数据库·python