【自然语言处理】P1 对文本编码(One-Hot 与 TF-IDF)

目录

对文本编码,目标是将自然语言文本表示为向量,从而便于继续处理和分析文本数据。三种常用对文本编码方法如下:

独热表示(One-hot)

独热表示(One-hot encoding)将句子中的每个单词转换为一个固定长度的二进制向量,其中每个向量表示句子中单词的独热编码。这个过程通常包括建立词库、独热编码两个步骤:

bash 复制代码
# 以这两个句子建立独热表示:
Time flies like an arrow.
Fruit flies like a banana.
  1. 建立词库:首先建立一个词库,包含两个句子中出现所有的单词。一般来说,词库中所有字符小写,且不包含逗号等标点字符。
bash 复制代码
# 上述两个句子的词库为:
{time, fruit, flies, like, a, an, arrow, banana}
  1. 独热编码:对于句子中每个单词,创建一个二进制向量,其长度等于词库的大小。在这个向量中,单词在词库中的位置对应一个1,其余位置都是0。这样,每个单词都得到了唯一的独热编码。
bash 复制代码
# 两个句子的独热编码为:
Time flies like an arrow.
[1, 0, 1, 1, 0, 1, 1, 0]

Fruit flies like a banana.
[0, 1, 1, 1, 1, 0, 0, 1]

独热编码可以确保每个单词都有一个唯一的向量表示,但它的缺点在于,没有捕捉到单词之间的任何语义关系。


TF-IDF

TF-IDF(Term Frequency-Inverse Document Frequency)用于评估一个词对于一个文档集合中一个文档的重要程度。

计算 TF-IDF,我们需要遵循以下五个步骤:

  1. 分词(Tokenization):将文本分解为单词或词组。
  2. 创建文档频率(DF)表:记录每个词在整个文档集合中出现的文档数量。
  3. 计算词频(TF):对于每个词,计算它在每个文档中的出现次数除以该文档的总词数。
  4. 计算逆文档频率(IDF) :使用公式 I D F = log ⁡ N N D F IDF = \log_N \frac{N}{DF} IDF=logNDFN 来计算,其中 N N N 是文档集合的大小, D F DF DF 是词的文档频率。
  5. 计算TF-IDF:将 TF 和 IDF 相乘得到 TF-IDF 值。

e . g . e.g. e.g. 假设我们有以下文档集合:

bash 复制代码
文档1:"The quick brown fox jumps over the lazy dog."
文档2:"The quick brown fox jumps over the lazy dog again."
文档3:"The quick brown fox jumps over the lazy dog for the third time."

我们将使用这些句子来计算词 "fox" 的 TF-IDF 值,五个步骤如下:

  1. 分词
bash 复制代码
文档1:["The", "quick", "brown", "fox", "jumps", "over", "the", "lazy", "dog."]
文档2:["The", "quick", "brown", "fox", "jumps", "over", "the", "lazy", "dog", "again."]
文档3:["The", "quick", "brown", "fox", "jumps", "over", "the", "lazy", "dog", "for", "the", "third", "time."]
  1. 创建 DF 表

    • "fox" 在 文档1、2、3中都出现了,所以 DF = 3。
  2. 计算 TF

    • 文档1中 "fox" 的 TF = 1/9 = 0.1111
    • 文档2中 "fox" 的 TF = 1/10 = 0.1
    • 文档3中 "fox" 的 TF = 1/12 = 0.0833
  3. 计算 IDF

    • I D F = l o g N ( N D F ) IDF = log_N (\frac N {DF}) IDF=logN(DFN)
    • 假设整个文档集合的大小 N = 1000,那么 I D F = l o g 1000 ( 1000 3 ) ≈ 1.5849 IDF = log_{1000} (\frac {1000} 3) ≈ 1.5849 IDF=log1000(31000)≈1.5849
  4. 计算 TF-IDF

    • 文档1中 "fox" 的 TF-IDF = 0.1111 * 1.5849 ≈ 0.176
    • 文档2中 "fox" 的 TF-IDF = 0.1 * 1.5849 ≈ 0.1585
    • 文档3中 "fox" 的 TF-IDF = 0.0833 * 1.5849 ≈ 0.132

因此,词 "fox" 在文档1、文档2和文档3中的 TF-IDF 值分别是 0.176、 0.1585 和 0.132。

TF-IDF值越高,意味着这个词在对应文档中的重要性越高。


此外

此外,还有很多其他对文本编码方法,如:

1\] RNN、**LSTM** 深度学习模型通过训练,可以捕捉文本中长期依赖关系,并生成能够反映文本含义的复杂向量表示。 \[2\] **注意力机制** 使模型能够关注输入序列中不同部分,帮助模型集中在最重要的单词或词组上,从而生成更有效的向量表示。 \[3\] 词嵌入方法如 **Word2Vec** 和 **GloVe** 将单词映射到连续向量空间,相似的单词会有相似的向量表示。能够有效捕捉单词的语义和句法关系。 这些方法都将在后续博文中单独介绍。 *** ** * ** *** 发布:2024/2/2 版本:第一版 如有任何疑问,请联系我,谢谢!

相关推荐
加油吧zkf3 分钟前
目标检测新纪元:DETR到Mamba实战解析
图像处理·人工智能·python·目标检测·分类
西柚小萌新9 分钟前
【深度学习:进阶篇】--4.3.seq2seq与Attention机制
人工智能·深度学习
求索小沈10 分钟前
ubuntu22.04 安装cuda cudnn
人工智能·深度学习
阿里云大数据AI技术19 分钟前
AI搜索 MCP最佳实践
数据库·人工智能·搜索引擎
大千AI助手20 分钟前
蒙特卡洛方法:随机抽样的艺术与科学
人工智能·机器学习·贝叶斯·概率·蒙特卡洛·随机
山顶望月川22 分钟前
并行科技MaaS平台支持文心4.5系列开源模型调用
人工智能·机器学习·编辑器
安思派Anspire1 小时前
再见 RAG?Gemini 2.0 Flash 刚刚 “杀死” 了它!
人工智能
FF-Studio1 小时前
【硬核数学】3. AI如何应对不确定性?概率论为模型注入“灵魂”《从零构建机器学习、深度学习到LLM的数学认知》
大数据·人工智能·深度学习·机器学习·数学建模·自然语言处理·概率论
master-dragon1 小时前
spring-ai 工作流
人工智能·spring·ai
moonless02221 小时前
🌈Transformer说人话版(二)位置编码 【持续更新ing】
人工智能·llm