Word2Vec介绍

Word2Vec的实现说明及代码示例,涵盖原理概述、使用Gensim的实践示例,以及关键步骤的底层实现思路。

一、Word2Vec 原理概述

Word2Vec 是一种将词语映射为稠密向量的浅层神经网络模型,主要包含两种架构:

  1. CBOW(Continuous Bag of Words):通过上下文词预测目标词。
  2. Skip-gram:通过目标词预测上下文词。

核心目标:通过训练使语义相似的词在向量空间中距离更近。

关键技术

  • 负采样(Negative Sampling):代替传统Softmax,加速训练。
  • Hierarchical Softmax:另一种优化输出层计算的方法。

二、使用 Gensim 实现 Word2Vec

1. 安装 Gensim
复制代码

Bash

pip install gensim

2. 代码示例
复制代码

Python

from gensim.models import Word2Vec from gensim.utils import simple_preprocess # 示例文本数据 corpus = [ "cat sits on the mat", "dog barks at the cat", "cat drinks milk" ] # 文本分词和预处理 sentences = [simple_preprocess(doc) for doc in corpus] # 训练 Skip-gram 模型 model = Word2Vec( sentences=sentences, vector_size=100, # 词向量维度 window=5, # 上下文窗口大小 min_count=1, # 忽略低频词 workers=4, # 线程数 sg=1 # sg=1 表示 Skip-gram ) # 获取词向量 print(model.wv['cat']) # 查找相似词 print(model.wv.most_similar('cat'))

3. 输出示例
复制代码

0.123, -0.456, 0.789, ... \] # 'cat' 的词向量 \[('milk', 0.85), ('sits', 0.79), ...\] # 与 'cat' 相似的词 #### **三、实现细节解析** ##### **1. 数据预处理** * **分词** :将文本拆分为词语列表(如 `["cat", "sits", ...]`)。 * **构建词汇表**:统计词频并分配唯一索引。 ##### **2. 生成 Skip-gram 样本** ``` ``` Python `def generate_skip_grams(sentence, window_size=2): skip_grams = [] for i, target in enumerate(sentence): # 提取上下文词 context = sentence[max(0, i - window_size):i] + \ sentence[i+1:i+window_size+1] for context_word in context: skip_grams.append((target, context_word)) return skip_grams # 示例 sentence = ["cat", "sits", "on", "mat"] print(generate_skip_grams(sentence)) # 输出: [('sits', 'cat'), ('sits', 'on'), ('on', 'sits'), ('on', 'mat'), ...]` ##### **3. 模型结构(Skip-gram + 负采样)** * **输入层**:目标词的 One-Hot 向量(维度 V)。 * **隐藏层**:词向量矩阵(维度 V×N)。 * **输出层**:通过负采样计算上下文词的概率。 ##### **4. 负采样实现** * 对每个正样本(目标词,上下文词),随机采样 K 个负样本(目标词,噪声词)。 * 使用 Sigmoid 作为二分类损失函数。 #### **四、手动实现(PyTorch 示例)** ##### **1. 模型定义** ``` ``` Python `import torch import torch.nn as nn class SkipGram(nn.Module): def __init__(self, vocab_size, embedding_dim): super().__init__() self.embed = nn.Embedding(vocab_size, embedding_dim) self.linear = nn.Linear(embedding_dim, vocab_size) def forward(self, x): x = self.embed(x) # (batch_size, embedding_dim) x = self.linear(x) # (batch_size, vocab_size) return x` ##### **2. 训练步骤** * **数据加载**:将生成的 Skip-gram 对转换为词索引。 * **损失函数** :使用 `nn.CrossEntropyLoss()` 或自定义负采样损失。 * **优化器**:SGD 或 Adam。 #### **五、总结** * **Gensim**:适合快速实现和部署,内置高效优化(如负采样)。 * **手动实现**:有助于理解底层原理,但需处理细节(如梯度更新、采样策略)。 * **扩展方向** :尝试调整 `vector_size`、`window` 参数,或探索 CBOW 架构(设置 `sg=0`)。

相关推荐
TalkU浩克34 分钟前
DoRA详解:从LoRA到权重分解的进化
人工智能·深度学习·机器学习
计算机sci论文精选2 小时前
ACL 2024 大模型方向优秀论文:洞察NLP前沿关键突破
人工智能·深度学习·语言模型·多模态·acl·机器翻译模型
SHIPKING3932 小时前
【机器学习&深度学习】NLP评价指标 BLEU 和 ROUGE
深度学习·机器学习·自然语言处理
Blossom.1184 小时前
基于深度学习的医学图像分析:使用BERT实现医学文本分类
人工智能·深度学习·机器学习·3d·分类·cnn·bert
analywize5 小时前
diffusion原理和代码延伸笔记1——扩散桥,GOUB,UniDB
人工智能·笔记·深度学习·机器学习·diffusion·扩散桥
MUTA️7 小时前
视觉语言模型在视觉任务上的研究综述
人工智能·深度学习·语言模型·多模态
文火冰糖的硅基工坊7 小时前
[人工智能-综述-17]:AI革命:重塑职业版图,开启文明新篇
人工智能·深度学习·神经网络·架构·信号处理·跨学科融合
CoovallyAIHub8 小时前
数据集分享 | 稻田识别分割数据集、水稻虫害数据集
深度学习·算法·计算机视觉
金井PRATHAMA8 小时前
分布内侧内嗅皮层的层Ⅱ或层Ⅲ的网格细胞(grid cells)对NLP中的深层语义分析的积极影响和启示
人工智能·深度学习·神经网络·机器学习·自然语言处理·知识图谱
盼小辉丶9 小时前
TensorFlow深度学习实战——DeepDream
人工智能·深度学习·tensorflow