【PyTorch][chapter 14][李宏毅深度学习][Word Embedding]

前言:

这是用于自然语言处理中数据降维的一种方案。

我们希望用一个向量来表示每一个单词. 有不同的方案

目录:

  1. one-hot Encoding
  2. word-class
  3. 词的上下文表示
  4. count-based
  5. perdition-based
  6. CBOW
  7. Skip-Gram
  8. word Embedding 词向量相似度

一 one-hot Encoding

假设英文有10万个单词,那每个单词用1个10万维的one-hot 编码表示。

其中只有1个维度是1,其它维度是0.

问题:

1: 无法表示词汇之间的相互关系

比如 car 和 cars


二 word-class

比如dog ,cat ,bird 属于一类, ran jumped walk 属于class2,...

问题:

很多细节丢失了


三 单词上下文表示

3.1: 某个单词可以通过其上下文表示

如上图 早上,中午,晚上后面都接 打游戏,说明三者之间有一定的相关性。

如何定义上下文,有两种方案

count-based& perdition-based


四 count-based

流程:

预置条件:

通过通过一些文章,统计每个单词,之后或者之前出现的单词的概率

建立灰度共现矩阵.

训练

1 每个单词先进行one-hot 编码

2 通过神经网络得到 词向量 .

3 做内积,

输出

测值

损失函数:

其中 就是灰度共现矩阵里面的概率值


五 perdition-based

5.1 原理:

count-based 使用一个单词预测下一个单词得到词向量,这个是用前面几个单词预测下一个单词,得到词向量

我们属于一些单词,经过一个神经网络,预测下面出现的单词(one-hot)表示。

损失函数用cross entropy

5.2 应用

文字推理

: 推荐下一个单词出现的概率

5.3网络结构

5.4 训练流程:

1 每个单词先进行one-hot 编码

2 通过神经网络得到 (共用权重系数W ,同CNN 里面的卷积一样)词向量 .

3 通过softmax 函数输出

4 通过交叉熵训练网络参数W

5.5 注意事项

这个网络的发明者通过实践发现不需要深度的网络,只需要一两层的线性网络可以

把该模型训练的很好。另外一个理由该模型只是实现抽取特征,该特征是其它NLP模型

的输入,所以不需要多层神经网络去实现

它的标签是灰度共现矩阵


六 CBOW

CBOW是continuous bag of words的缩写,中文译为"连续词袋模型"。它是一种用于生成词向量的神经网络模型,由Tomas Mikolov等人于2013年提出 。词向量是一种将单词表示为固定长度的实数向量的方法,可以捕捉单词之间的语义和语法关系。

CBOW的基本思想是,给定一个单词的上下文(即窗口内的其他单词),预测该单词本身。例如,对于句子"The cat climbed up the tree",如果窗口大小为5,那么当中心单词为"climbed"时,上下文单词为"The"、"cat"、"up"和"the"。CBOW模型要求根据这四个上下文单词,计算出"climbed"的概率分布。


七 Skip-gram

预测文本中某个字周围可能出现的词

我们在看一篇文章时,若是将一个词的周围几个词盖住让我们猜测,我们也能够大致的猜出被盖住部分原有的词语,因为文章中每个词语与其周围的词之间都是有关系的,也可以说,每个词都决定了和它相邻的词。skip-gram模型就是以此为动机来进行训练的。

为了完成上面的训练目标,skip-gram模型有一个长度为2c+1的滑动窗口(上图为5),这个窗口会在语料库中滑动,每滑动以此,被窗口包括在内的2c+1个词就会被用与模型的训练。窗口中心的词作为已知的词,而中心词前k个和后k个词


八 word Embedding 词向量相似度

我们可以通过Vec 之间的相减得到词之间的关系

14: Unsupervised Learning - Word Embedding_哔哩哔哩_bilibili

相关推荐
BulingQAQ4 小时前
论文阅读:PET/CT Cross-modal medical image fusion of lung tumors based on DCIF-GAN
论文阅读·深度学习·生成对抗网络·计算机视觉·gan
slomay6 小时前
关于对比学习(简单整理
经验分享·深度学习·学习·机器学习
丶21366 小时前
【CUDA】【PyTorch】安装 PyTorch 与 CUDA 11.7 的详细步骤
人工智能·pytorch·python
AI完全体7 小时前
【AI知识点】偏差-方差权衡(Bias-Variance Tradeoff)
人工智能·深度学习·神经网络·机器学习·过拟合·模型复杂度·偏差-方差
卷心菜小温8 小时前
【BUG】P-tuningv2微调ChatGLM2-6B时所踩的坑
python·深度学习·语言模型·nlp·bug
陈苏同学8 小时前
4. 将pycharm本地项目同步到(Linux)服务器上——深度学习·科研实践·从0到1
linux·服务器·ide·人工智能·python·深度学习·pycharm
FL16238631299 小时前
[深度学习][python]yolov11+bytetrack+pyqt5实现目标追踪
深度学习·qt·yolo
羊小猪~~9 小时前
深度学习项目----用LSTM模型预测股价(包含LSTM网络简介,代码数据均可下载)
pytorch·python·rnn·深度学习·机器学习·数据分析·lstm
龙的爹23339 小时前
论文 | Model-tuning Via Prompts Makes NLP Models Adversarially Robust
人工智能·gpt·深度学习·语言模型·自然语言处理·prompt
工业机器视觉设计和实现10 小时前
cnn突破四(生成卷积核与固定核对比)
人工智能·深度学习·cnn