NLP基础

一、基本概念

自然语言处理(NLP)是计算机科学、人工智能和语言学的交叉领域,旨在使计算机能够理解、解释和生成自然语言。以下是一些NLP的基础概念:

  • 文本预处理

    • 分词:将文本分解为单词或短语。

    • 去除停用词:去掉常见的、无实际意义的词(如"是"、"的")。

    • 词形还原/词干提取:将词语还原为基本形式(如"running"还原为"run")。

  • 词表与语料库

    • 词表/词库:一个包含文本中所有独特词汇的列表,用于构建特征表示。

    • 语料库:一个包含大量文本数据的集合,通常用于训练和评估模型。

  • 特征提取

    • 词袋模型:一种简化的表示方法,将文本表示为词的出现频率,忽略词序。

    • N-gram:通过考虑连续的N个词(如二元组、三元组等)来捕捉词序信息。

    • TF-IDF:一种统计方法,用于评估一个词对文档的重要性。

    • 词嵌入:使用模型(如Word2Vec、GloVe)将词转换为向量表示,捕捉词之间的语义关系。

  • 模型

    • 监督学习:使用标注数据训练模型,如情感分析、文本分类。

    • 无监督学习:从未标注数据中发现模式,如主题建模(LDA)。

    • 深度学习模型:如RNN、LSTM、Transformer等,能够处理序列数据。

  • 应用

    • 机器翻译:自动将一种语言翻译为另一种语言。

    • 对话系统:如聊天机器人,通过自然语言与用户互动。

    • 文本生成:生成新的文本内容,如写作助手。

  • 评估指标

    • 准确率召回率F1-score等,用于评估模型性能。

二、NLP的基本流程

中文NLP的基本流程与英文相比,在文本预处理环节表现出特殊性,主要分为语料获取、语料预处理、文本向量化、模型构建、模型训练和模型评价六部分。

(1)语料获取 获取文本语料的方法包括:利用现成的数据集或第三方语料库、通过爬虫技术获取网络数据,或与第三方合作获取数据。

(2)语料预处理 预处理步骤包括:去除非文本内容(如HTML代码、CSS标签等),使用工具如正则表达式和Beautiful Soup;进行中文分词,常用工具有jieba等;词性标注,为词语打上词类标签;去停用词,移除句子中不必要的虚词和代词。

(3)文本向量化(特征工程) 经过预处理的文本需转化为特征向量,常用方法有词袋模型、独热表示、TF-IDF、n-gram模型和Word2Vec等。

(4)模型构建 根据需求选择合适的模型进行构建,备选模型也需准备。模型包括机器学习模型(如SVM、Naive Bayes)和深度学习模型(如TextCNN、RNN、transformer等),复杂模型通常需更长训练时间,但不一定能显著提高精度。

(5)模型训练 训练过程中需注意过拟合和欠拟合问题,避免梯度消失或爆炸。模型调优是一个复杂且冗长的过程,需权衡精度与泛用性,并应对数据分布变化进行重新训练。

(6)模型评价 模型训练完成后,需用准确率、精确率、召回率、F1值、ROC曲线等指标对其效果进行评价。不同业务场景对模型性能的要求可能有所不同,需针对性选择评价方法。

三、NLP中的特征工程

特征是数据中抽取出来的对结果预测有用的信息。

在自然语言处理(NLP)中,特征工程 是指将文本数据转换为适合机器学习模型使用的数值表示的过程。文本是一种非结构化数据,机器学习模型无法直接处理,因此必须通过特征工程来提取有用的信息。

通过特征工程能让机器学习到文本数据中的一些特征,比如词性、语法、相似度等

1.词向量的引入

词向量(Word Vector)或称词嵌入,是将单词映射为稠密的实数向量,以捕捉其语义关系。这种映射使得机器可以通过计算向量间的相似性来理解单词之间的关系。例如,类比运算可以让模型推断出"国王"与"男人"相关,而通过这种方式,可以提升文本分类、命名实体识别等NLP任务的性能。

2. 传统NLP中的特征工程

2.1 独热编码 one - hot

独热编码(One-Hot Encoding)是一种将分类变量转换为二进制向量的方式。在这个编码中,每个类别用一个向量表示,该向量的长度等于类别总数,只有一个元素为1,其余均为0。例如,对于三个类别"猫"、"狗"和"鸟",可以编码为"猫"→[1, 0, 0],"狗"→[0, 1, 0],"鸟"→[0, 0, 1]。这种方法简单易用,但在处理高维数据时可能会导致稀疏性问题。

2.2 词频-逆文档频率(TF-IDF)

词频-逆文档频率(Term Frequency-Inverse Document Frequency, TF-IDF)是一种在信息检索和文本挖掘中常用的统计方法,用来评估一个词在一个文档或者语料库中的重要程度。TF-IDF是两个独立度量的乘积:词频(TF)和逆文档频率(IDF)。

  1. 词频(Term Frequency, TF): 词频指的是一个词在文档中出现的次数。通常情况下,如果一个词在一个文档中出现得越多,那么它对文档的重要性也就越大。然而,并不是所有频繁出现的词都是有实际意义的,比如"的"、"是"等常见词汇,因此需要结合其他因素一起考虑。

  2. 逆文档频率(Inverse Document Frequency, IDF) : 逆文档频率是对词频的一个补充,用来衡量一个词的普遍重要性。其计算公式为:IDF = log(文档总数 / (包含该词的文档数 + 1))。逆文档频率越高,说明该词越具有区分度,即该词在文档中的出现并不是那么常见,可能更能够反映文档的主题。

TF-IDF值高的词,意味着这个词不仅在当前文档中出现频繁,而且在整个语料库中并不常见,这样的词对于识别文档的主题来说更有价值。

计算方式 : TF-IDF的计算公式为:TF-IDF = TF * IDF

例如,对于某个词w,在文档d中的TF-IDF值可以表示为: TF-IDF(w, d) = TF(w, d) * IDF(w)

其中,

  • TF(w, d) 是词w在文档d中的词频;

  • IDF(w) 是词w的逆文档频率。

2.3 n-grams

n-grams 是一种在自然语言处理(NLP)领域广泛使用的模型,用于预测给定序列中的下一个元素。n-gram 模型基于 n 个连续的项目(如单词、字符或音素)来构建语言模型。这里的"n"是指连续项目的数量。

类型

n-grams 可以分为几种类型,主要根据它们所包含的项目数量来定义:

  1. Unigrams(一元语法)

    • 这是最简单的情况,只考虑单个词语或字符。例如,"我","喜欢","编程"。
  2. Bigrams(二元语法)

    • 考虑连续的两个词语或字符。例如,"我喜欢","喜欢编程"。
  3. Trigrams(三元语法)

    • 考虑连续的三个词语或字符。例如,"我喜欢编程"。
  4. Four-grams 或 Tetra-grams(四元语法)

    • 考虑连续的四个词语或字符。例如,"我喜欢编程技术"。
  5. 更高阶的 n-grams

    • 可以扩展到任意长度,但随着 n 的增加,数据稀疏性问题会变得更加显著。

应用

n-grams 在多个领域都有应用,包括但不限于:

  • 语言建模:预测给定前缀下的下一个单词。

  • 机器翻译:利用源语言和目标语言之间的 n-gram 分布来翻译文本。

  • 拼写检查:通过比较输入文本与已知正确文本的 n-gram 来检测拼写错误。

  • 文本分类:使用特征向量中的 n-grams 来训练分类器。

  • 自动补全:预测用户可能要输入的下一个词。

数据稀疏性

随着 n 的增加,n-gram 模型可能会遇到数据稀疏性问题,因为较长的序列在训练数据中出现的可能性较低。为了处理这个问题,可以采用平滑技术,如拉普拉斯平滑(Laplace smoothing),或者使用退化(back-off)策略,当高阶 n-grams 没有足够的统计数据支持时退回到低阶 n-grams。

n-grams 提供了一种简单而有效的方法来处理语言数据,并且由于其灵活性,仍然在许多现代 NLP 系统中占有一席之地。

3.深度学习中NLP的特征输入

深度学习使用分布式单词表示技术(也称词嵌入 表示),通过查看所使用的单词的周围单词(即上下文)来学习单词表示。这种表示方式将词表示为一个粘稠的序列,在保留词上下文信息同时,避免维度过大导致的计算困难。

3.1 稠密编码(特征嵌入)

稠密编码在机器学习和深度学习中,通常指的是将离散或高维稀疏数据转化为低维的连续、密集向量表示。这种编码方式在特征嵌入(Feature Embedding)中尤为常见。

特征嵌入(Feature Embedding)

特征嵌入,也称为词嵌入,是稠密编码的一种表现形式,目的是将离散的类别、对象或其他类型的特征映射到一个连续的向量空间。通过这种方式,嵌入后的向量可以捕捉不同特征之间的语义关系,并便于在后续的机器学习模型中使用。

特点:

  • 低维度:相比稀疏表示(如独热编码),稠密编码的维度更低,能够减少计算和存储成本。

  • 语义相似性:嵌入向量之间的距离(如欧氏距离或余弦相似度)可以表示这些对象之间的语义相似性。

  • 可微学习:嵌入表示通常通过神经网络进行学习,并通过反向传播算法进行优化。

3.2 词嵌入算法
3.2.1 Embedding Layer

Embedding Layer 的作用

Embedding Layer 是一个可训练的层,它将每个单词(通常是通过 one-hot 编码表示的索引)映射到一个多维向量空间中的点。这个层的输出是一个密集的向量,通常具有较小的维度,相比于原始的 one-hot 编码表示,这个向量可以更好地捕捉到单词之间的关系。

如何使用 Embedding Layer

在使用 Embedding Layer 时,通常需要完成以下几个步骤:

  1. 文本预处理

    • 清洗文本,移除特殊字符和停用词。

    • 将文本分割成单词或标记。

    • 创建一个词汇表(vocabulary),并为每个单词分配一个唯一的索引。

  2. 创建 Embedding Layer

    • 在 Keras 中,可以使用

      复制代码
      Embedding

      层来创建一个词嵌入层。你需要指定几个参数:

      • input_dim:词汇表的大小,即最大索引加 1。

      • output_dim:每个嵌入向量的维度。

      • input_length:输入序列的最大长度(可选)。

  1. 构建模型

    • 将 Embedding Layer 添加到模型中,并连接后续的层,如 LSTM、GRU 或 Dense 层。
  2. 训练模型

    • 训练模型时,Embedding Layer 的权重将根据损失函数被优化调整。
  3. 使用预训练的词嵌入

    • 如果已经有预训练的词嵌入(如 Word2Vec 或 GloVe),可以加载这些权重到 Embedding Layer 中,并选择是否继续训练这些权重。

注意事项

  • 词汇表大小:词汇表的大小决定了 Embedding Layer 的输入维度。

  • 预训练权重:如果使用预训练的词嵌入,确保词汇表中的索引与预训练权重的索引相对应。

  • 序列填充:确保所有的输入序列都具有相同的长度,可以通过填充(padding)来实现这一点。

Embedding Layer 是深度学习中处理文本数据的重要工具,它使得模型能够从原始文本中学习到有意义的特征。

相关推荐
WeeJot嵌入式11 分钟前
卷积神经网络:深度学习中的图像识别利器
人工智能
糖豆豆今天也要努力鸭19 分钟前
torch.__version__的torch版本和conda list的torch版本不一致
linux·pytorch·python·深度学习·conda·torch
脆皮泡泡21 分钟前
Ultiverse 和web3新玩法?AI和GameFi的结合是怎样
人工智能·web3
机器人虎哥24 分钟前
【8210A-TX2】Ubuntu18.04 + ROS_ Melodic + TM-16多线激光 雷达评测
人工智能·机器学习
码银31 分钟前
冲破AI 浪潮冲击下的 迷茫与焦虑
人工智能
何大春35 分钟前
【弱监督语义分割】Self-supervised Image-specific Prototype Exploration for WSSS 论文阅读
论文阅读·人工智能·python·深度学习·论文笔记·原型模式
uncle_ll43 分钟前
PyTorch图像预处理:计算均值和方差以实现标准化
图像处理·人工智能·pytorch·均值算法·标准化
宋1381027972043 分钟前
Manus Xsens Metagloves虚拟现实手套
人工智能·机器人·vr·动作捕捉
SEVEN-YEARS1 小时前
深入理解TensorFlow中的形状处理函数
人工智能·python·tensorflow
世优科技虚拟人1 小时前
AI、VR与空间计算:教育和文旅领域的数字转型力量
人工智能·vr·空间计算