(done) 什么是词嵌入技术?word embedding ?(这里没有介绍词嵌入算法)(没有提到嵌入矩阵如何得到)

参考视频:https://www.bilibili.com/video/BV1sw411S7i1/?spm_id_from=333.788\&vd_source=7a1a0bc74158c6993c7355c5490fc600


词嵌入(word embedding):把词汇表中的词或短语 -------- 映射 ----> 固定长度向量

我们可以把 one-hot 编码表示的 高维稀疏向量 -------- 转化 ---------> 低维连续向量

使用低维连续向量的好处是:

1.节省存储空间和计算成本

2.可以更好地表示不同单词之间的关系

如下图,我们可以使用降维算法,把词嵌入向量(word embedding vectors) 映射到二维平面上

词嵌入向量不仅可以表达语义的相似性,还能通过向量的数学关系描述词语之间的词语关联

通过特定的词嵌入算法 (如 word2vec, fasttext, glove 等),我们能够训练一个通用的嵌入矩阵

如下图,矩阵中的每一行都代表了一个词向量

这些词向量是通用的,它们一旦训练完成,就可以用在不同的 NLP 任务中

如下图,嵌入矩阵的行,就是语料库(词汇表, vocab) 中词语的个数,矩阵的列是词语的维度

接下来我们用一个具体的例子,来说明词嵌入的过程

首先我们需要一个 "已经训练好的" 嵌入矩阵 E

这个矩阵大小是 5000 x 128

5000 表示语料库/词汇表中有 5000 个单词

128 表示每个 单词矢量 的维度是 128 维

如下图表示

接下来我们看一句话 "我喜欢数学",我们的目的是把这句话里的每个词,都表示成一个 128 维的向量

接下来进行

1.切词,把这句话里的所有词语切出来

2.查询词汇表,根据词汇表,查找出这些词语的 one-hot 编码

3.组成矩阵 V,把那些 one-hot 编码矢量组合成一个 4 x 5000 的矩阵 V

接下来使用 V x E,可以得到这四个词语的 "嵌入向量" (embedding vectors)

词嵌入的优势是什么?

1.储存维度降低、计算成本降低

2.语义相似的词语在向量空间上更相近

3.one-hot编码不具有通用性,而嵌入矩阵是通用的,同一份词向量,可以用在不同的 NLP 任务中


相关推荐
子豪-中国机器人11 分钟前
C++ 信息学奥赛总复习题
java·jvm·算法
全干engineer2 小时前
web3-基于贝尔曼福特算法(Bellman-Ford )与 SMT 的 Web3 DeFi 套利策略研究
算法·金融·web3·去中心化·区块链·智能合约
Splendid2 小时前
Geneformer:基于Transformer的基因表达预测深度学习模型
javascript·算法
愿所愿皆可成2 小时前
机器学习之聚类Kmeans算法
算法·机器学习·kmeans·聚类
幻奏岚音2 小时前
统计学(第8版)——假设检验学习笔记(考试用)
笔记·学习·算法
hie988942 小时前
基于matlab策略迭代和值迭代法的动态规划
算法·动态规划
Coovally AI模型快速验证2 小时前
SFTrack:面向警务无人机的自适应多目标跟踪算法——突破小尺度高速运动目标的追踪瓶颈
人工智能·神经网络·算法·yolo·计算机视觉·目标跟踪·无人机
Brduino脑机接口技术答疑3 小时前
脑机新手指南(七):OpenBCI_GUI:从环境搭建到数据可视化(上)
人工智能·算法·脑机接口·新手入门
真的很上进3 小时前
2025最全TS手写题之partial/Omit/Pick/Exclude/Readonly/Required
java·前端·vue.js·python·算法·react·html5
linweidong3 小时前
GO 基础语法和数据类型面试题及参考答案(下)
算法·后端面试·泛型·go面试·go面经·go求职