Word2Vec介绍

Word2Vec的实现说明及代码示例,涵盖原理概述、使用Gensim的实践示例,以及关键步骤的底层实现思路。

一、Word2Vec 原理概述

Word2Vec 是一种将词语映射为稠密向量的浅层神经网络模型,主要包含两种架构:

  1. CBOW(Continuous Bag of Words):通过上下文词预测目标词。
  2. Skip-gram:通过目标词预测上下文词。

核心目标:通过训练使语义相似的词在向量空间中距离更近。

关键技术

  • 负采样(Negative Sampling):代替传统Softmax,加速训练。
  • Hierarchical Softmax:另一种优化输出层计算的方法。

二、使用 Gensim 实现 Word2Vec

1. 安装 Gensim
复制代码

Bash

pip install gensim

2. 代码示例
复制代码

Python

from gensim.models import Word2Vec from gensim.utils import simple_preprocess # 示例文本数据 corpus = [ "cat sits on the mat", "dog barks at the cat", "cat drinks milk" ] # 文本分词和预处理 sentences = [simple_preprocess(doc) for doc in corpus] # 训练 Skip-gram 模型 model = Word2Vec( sentences=sentences, vector_size=100, # 词向量维度 window=5, # 上下文窗口大小 min_count=1, # 忽略低频词 workers=4, # 线程数 sg=1 # sg=1 表示 Skip-gram ) # 获取词向量 print(model.wv['cat']) # 查找相似词 print(model.wv.most_similar('cat'))

3. 输出示例
复制代码

0.123, -0.456, 0.789, ... \] # 'cat' 的词向量 \[('milk', 0.85), ('sits', 0.79), ...\] # 与 'cat' 相似的词 #### **三、实现细节解析** ##### **1. 数据预处理** * **分词** :将文本拆分为词语列表(如 `["cat", "sits", ...]`)。 * **构建词汇表**:统计词频并分配唯一索引。 ##### **2. 生成 Skip-gram 样本** ``` ``` Python `def generate_skip_grams(sentence, window_size=2): skip_grams = [] for i, target in enumerate(sentence): # 提取上下文词 context = sentence[max(0, i - window_size):i] + \ sentence[i+1:i+window_size+1] for context_word in context: skip_grams.append((target, context_word)) return skip_grams # 示例 sentence = ["cat", "sits", "on", "mat"] print(generate_skip_grams(sentence)) # 输出: [('sits', 'cat'), ('sits', 'on'), ('on', 'sits'), ('on', 'mat'), ...]` ##### **3. 模型结构(Skip-gram + 负采样)** * **输入层**:目标词的 One-Hot 向量(维度 V)。 * **隐藏层**:词向量矩阵(维度 V×N)。 * **输出层**:通过负采样计算上下文词的概率。 ##### **4. 负采样实现** * 对每个正样本(目标词,上下文词),随机采样 K 个负样本(目标词,噪声词)。 * 使用 Sigmoid 作为二分类损失函数。 #### **四、手动实现(PyTorch 示例)** ##### **1. 模型定义** ``` ``` Python `import torch import torch.nn as nn class SkipGram(nn.Module): def __init__(self, vocab_size, embedding_dim): super().__init__() self.embed = nn.Embedding(vocab_size, embedding_dim) self.linear = nn.Linear(embedding_dim, vocab_size) def forward(self, x): x = self.embed(x) # (batch_size, embedding_dim) x = self.linear(x) # (batch_size, vocab_size) return x` ##### **2. 训练步骤** * **数据加载**:将生成的 Skip-gram 对转换为词索引。 * **损失函数** :使用 `nn.CrossEntropyLoss()` 或自定义负采样损失。 * **优化器**:SGD 或 Adam。 #### **五、总结** * **Gensim**:适合快速实现和部署,内置高效优化(如负采样)。 * **手动实现**:有助于理解底层原理,但需处理细节(如梯度更新、采样策略)。 * **扩展方向** :尝试调整 `vector_size`、`window` 参数,或探索 CBOW 架构(设置 `sg=0`)。

相关推荐
mguy_14 小时前
深度学习之人脸表情识别详解
深度学习
love you joyfully9 小时前
循环神经网络——pytorch实现循环神经网络(RNN、GRU、LSTM)
人工智能·pytorch·rnn·深度学习·gru·循环神经网络
刀鋒偏冷15 小时前
大模型私有化部署
人工智能·深度学习·机器学习
Ronin-Lotus1 天前
深度学习篇---VGGNet网络结构
人工智能·深度学习
HPC_fac130520678161 天前
英伟达发布高效小模型Jet-Nemotron:基于PostNAS与JetBlock架构,准确率与吞吐量双突破
人工智能·笔记·深度学习·架构·数据挖掘·语音识别·gpu算力
deephub1 天前
R-Zero:通过自博弈机制让大语言模型无需外部数据实现自我进化训练
人工智能·深度学习·大语言模型·零样本学习·自博弈机制
Blossom.1181 天前
把 AI 塞进「自行车码表」——基于 MEMS 的 3D 地形预测码表
人工智能·python·深度学习·opencv·机器学习·计算机视觉·3d
DogDaoDao1 天前
用PyTorch实现多类图像分类:从原理到实际操作
图像处理·人工智能·pytorch·python·深度学习·分类·图像分类
这张生成的图像能检测吗1 天前
(论文速读)Prompt Depth Anything:让深度估计进入“提示时代“
深度学习·计算机视觉·深度估计
星期天要睡觉1 天前
深度学习——卷积神经网络CNN(原理:基本结构流程、卷积层、池化层、全连接层等)
人工智能·深度学习·cnn