Word2Vec介绍

Word2Vec的实现说明及代码示例,涵盖原理概述、使用Gensim的实践示例,以及关键步骤的底层实现思路。

一、Word2Vec 原理概述

Word2Vec 是一种将词语映射为稠密向量的浅层神经网络模型,主要包含两种架构:

  1. CBOW(Continuous Bag of Words):通过上下文词预测目标词。
  2. Skip-gram:通过目标词预测上下文词。

核心目标:通过训练使语义相似的词在向量空间中距离更近。

关键技术

  • 负采样(Negative Sampling):代替传统Softmax,加速训练。
  • Hierarchical Softmax:另一种优化输出层计算的方法。

二、使用 Gensim 实现 Word2Vec

1. 安装 Gensim
复制代码

Bash

pip install gensim

2. 代码示例
复制代码

Python

from gensim.models import Word2Vec from gensim.utils import simple_preprocess # 示例文本数据 corpus = [ "cat sits on the mat", "dog barks at the cat", "cat drinks milk" ] # 文本分词和预处理 sentences = [simple_preprocess(doc) for doc in corpus] # 训练 Skip-gram 模型 model = Word2Vec( sentences=sentences, vector_size=100, # 词向量维度 window=5, # 上下文窗口大小 min_count=1, # 忽略低频词 workers=4, # 线程数 sg=1 # sg=1 表示 Skip-gram ) # 获取词向量 print(model.wv['cat']) # 查找相似词 print(model.wv.most_similar('cat'))

3. 输出示例
复制代码

0.123, -0.456, 0.789, ... \] # 'cat' 的词向量 \[('milk', 0.85), ('sits', 0.79), ...\] # 与 'cat' 相似的词 #### **三、实现细节解析** ##### **1. 数据预处理** * **分词** :将文本拆分为词语列表(如 `["cat", "sits", ...]`)。 * **构建词汇表**:统计词频并分配唯一索引。 ##### **2. 生成 Skip-gram 样本** ``` ``` Python `def generate_skip_grams(sentence, window_size=2): skip_grams = [] for i, target in enumerate(sentence): # 提取上下文词 context = sentence[max(0, i - window_size):i] + \ sentence[i+1:i+window_size+1] for context_word in context: skip_grams.append((target, context_word)) return skip_grams # 示例 sentence = ["cat", "sits", "on", "mat"] print(generate_skip_grams(sentence)) # 输出: [('sits', 'cat'), ('sits', 'on'), ('on', 'sits'), ('on', 'mat'), ...]` ##### **3. 模型结构(Skip-gram + 负采样)** * **输入层**:目标词的 One-Hot 向量(维度 V)。 * **隐藏层**:词向量矩阵(维度 V×N)。 * **输出层**:通过负采样计算上下文词的概率。 ##### **4. 负采样实现** * 对每个正样本(目标词,上下文词),随机采样 K 个负样本(目标词,噪声词)。 * 使用 Sigmoid 作为二分类损失函数。 #### **四、手动实现(PyTorch 示例)** ##### **1. 模型定义** ``` ``` Python `import torch import torch.nn as nn class SkipGram(nn.Module): def __init__(self, vocab_size, embedding_dim): super().__init__() self.embed = nn.Embedding(vocab_size, embedding_dim) self.linear = nn.Linear(embedding_dim, vocab_size) def forward(self, x): x = self.embed(x) # (batch_size, embedding_dim) x = self.linear(x) # (batch_size, vocab_size) return x` ##### **2. 训练步骤** * **数据加载**:将生成的 Skip-gram 对转换为词索引。 * **损失函数** :使用 `nn.CrossEntropyLoss()` 或自定义负采样损失。 * **优化器**:SGD 或 Adam。 #### **五、总结** * **Gensim**:适合快速实现和部署,内置高效优化(如负采样)。 * **手动实现**:有助于理解底层原理,但需处理细节(如梯度更新、采样策略)。 * **扩展方向** :尝试调整 `vector_size`、`window` 参数,或探索 CBOW 架构(设置 `sg=0`)。

相关推荐
仗剑_走天涯4 小时前
基于pytorch.nn模块实现线性模型
人工智能·pytorch·python·深度学习
HollowKnightZ10 小时前
目标姿态估计综述:Deep Learning-Based Object Pose Estimation: A Comprehensive Survey
人工智能·深度学习
加油吧zkf11 小时前
Conda虚拟环境管理:从入门到精通的常用命令
图像处理·深度学习·计算机视觉·conda
小哥谈12 小时前
论文解析篇 | YOLOv12:以注意力机制为核心的实时目标检测算法
人工智能·深度学习·yolo·目标检测·机器学习·计算机视觉
水龙吟啸12 小时前
从零开始搭建深度学习大厦系列-2.卷积神经网络基础(5-9)
人工智能·pytorch·深度学习·cnn·mxnet
HollowKnightZ14 小时前
论文阅读笔记:VI-Net: Boosting Category-level 6D Object Pose Estimation
人工智能·深度学习·计算机视觉
yzx99101314 小时前
AI大模型平台
大数据·人工智能·深度学习·机器学习
Better Rose15 小时前
人工智能与机器学习暑期科研项目招募(可发表论文)
人工智能·深度学习·机器学习·论文撰写
慕婉030716 小时前
深度学习中的常见损失函数详解及PyTorch实现
人工智能·pytorch·深度学习
神经星星16 小时前
在线教程丨一句话精准P图,FLUX.1 Kontext可实现图像编辑/风格迁移/文本编辑/角色一致性编辑
人工智能·深度学习·机器学习