【NLP】文本特征处理:n-gram特征和文本长度规范

文章目录

🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。

🦅个人主页:@逐梦苍穹

📕所属专栏:人工智能

🌻gitee地址:xzl的人工智能代码仓库

✈ 您的一键三连,是我创作的最大动力🌹

1、本章目标

  1. 了解文本特征处理的作用.
  2. 掌握实现常见的文本特征处理的具体方法.
  3. 文本特征处理的作用:
    1. 文本特征处理包括为语料添加具有普适性的文本特征,如n-gram特征;
    2. 以及对加入特征之后的文本语料进行必要的处理,如长度规范;
    3. 这些特征处理工作能够有效的将重要的文本特征加入模型训练中,增强模型评估指标
  4. 常见的文本特征处理方法:
    1. 添加n-gram特征
    2. 文本长度规范

2、n-gram特征

2.1、概念

给定一段文本序列,其中n个词或字的相邻共现特征 即n-gram特征,常用的n-gram特征是bi-gram和tri-gram特征,分别对应n为2和3。

2.2、举个例子

这个示例讲解了如何从词汇列表生成数值特征并扩展到 N-gram 特征

首先,理解 N-gram 特征的一些基本概念:

  • 词汇列表 :是一个包含文本中所有词的列表。例如,给定一个句子 "是谁 鼓动 我心",其词汇列表为 ["是谁", "鼓动", "我心"]
  • 数值映射列表 :通常用于将每个词映射到一个唯一的数字(索引)。例如,可以将 ["是谁", "鼓动", "我心"] 映射为 [1, 34, 21]

N-gram 特征的意思是将文本中的相邻词对作为特征。例如,Bigram(2-gram)就是由两个相邻的词组成的特征。

假设有一个词汇列表 ["是谁", "鼓动", "我心"],对应的数值映射列表为 [1, 34, 21]

这些数值可以被视为单个词汇的特征(Unigram),即每个词在序列中的独立存在。

现在,假设你要考虑 Bigram 特征(2-gram),即两个相邻词的组合。
步骤:

  1. 识别相邻的词对:在列表中,"是谁" 和 "鼓动" 是相邻的,"鼓动" 和 "我心" 也是相邻的。
  2. 为每个相邻词对生成新的特征值
    • 假设数字 1000 代表 "是谁" 和 "鼓动" 的相邻关系。
    • 假设数字 1001 代表 "鼓动" 和 "我心" 的相邻关系。

结果:

  • 原始的数值映射列表 [1, 34, 21] 现在扩展为包含 Bigram 特征的 [1, 34, 21, 1000, 1001]

在这个例子中,N-gram 特征的引入使得特征表示不仅仅是词汇本身,还包括词汇之间的相邻关系(如 "是谁" 和 "鼓动" 的相邻)。通过引入这些特征,模型可以更好地捕捉词汇之间的上下文关系。

具体来说:

  • 原来的 [1, 34, 21] 仅表示单个词汇。
  • 添加了 Bigram 特征后,特征列表变为 [1, 34, 21, 1000, 1001],表示不仅有单个词汇的信息,还有相邻词对的信息。

2.3、代码

提取n-gram特征:

python 复制代码
# -*- coding: utf-8 -*-
# @Author: CSDN@逐梦苍穹
# @Time: 2024/8/12 21:51
# TODO 一般n-gram中的n取2或者3, 这里取2为例
def create_ngram_set(input_list):
    # 使用 zip 和列表推导式生成 n-gram 特征
    ngram_set = set(zip(*[input_list[i:] for i in range(ngram_range)]))
    return ngram_set


if __name__ == '__main__':
    ngram_range = 2
    example_input = [1, 4, 9, 4, 1, 4]
    print(create_ngram_set(example_input))
    # Output: {(4, 9), (4, 1), (1, 4), (9, 4)}

输出效果:

# 该输入列表的所有bi-gram特征
{(3, 2), (1, 3), (2, 1), (1, 5), (5, 3)}

3、文本长度规范及其作用

一般模型的输入需要等尺寸大小 的矩阵,因此在进入模型前需要对每条文本数值映射后的长度进行规范,

此时将根据句子长度分布分析出 覆盖绝大多数文本的合理长度,
对超长文本进行截断,对不足文本进行补齐(一般使用数字0),这个过程就是文本长度规范

文本长度规范的实现:

python 复制代码
# -*- coding: utf-8 -*-
# @Author: CSDN@逐梦苍穹
# @Time: 2024/8/12 22:39
# 从 Keras 的 preprocessing 模块中导入 sequence,用于序列处理
from keras.preprocessing import sequence
# 根据数据分析中句子长度的分布,确定覆盖 90% 左右语料的最短长度
# 这里假定 cutlen 为 10,意味着我们将所有的句子统一处理为长度为 10 的序列
cutlen = 10
def padding(x_train):
    """
    description: 对输入文本张量进行长度规范,确保所有文本的长度一致
    :param x_train: 文本的张量表示, 形如: [[1, 32, 32, 61], [2, 54, 21, 7, 19]]
                     这是一个二维列表,其中每个子列表表示一条文本的词汇索引序列
    :return: 进行截断补齐后的文本张量表示,输出的形状为 (len(x_train), cutlen)
             如果文本长度小于 cutlen,则补齐至 cutlen;如果文本长度大于 cutlen,则截断至 cutlen
    """
    # 使用 sequence.pad_sequences 函数对序列进行补齐(或截断)
    # pad_sequences 会将每个序列截断或补齐到相同的长度 cutlen
    # 默认情况下,较短的序列会在前面补 0(默认补在序列的左侧),
    # 较长的序列会从前面截断(即保留序列的最后 cutlen 个元素)
    return sequence.pad_sequences(x_train, cutlen)

if __name__ == '__main__':
    # 假定 x_train 里面有两条文本,一条长度大于 10,一条长度小于 10
    x_train = [
        [1, 23, 5, 32, 55, 63, 2, 21, 78, 32, 23, 1],  # 长度为 12,超过了 cutlen
        [2, 32, 1, 23, 1]  # 长度为 5,少于 cutlen
    ]

    # 调用 padding 函数,对 x_train 中的序列进行补齐(或截断)
    res = padding(x_train)

    # 输出处理后的结果
    # 预期输出:
    # array([[ 5, 32, 55, 63,  2, 21, 78, 32, 23,  1],   # 第1条序列被截断至长度10
    #        [ 0,  0,  0,  0,  0,  2, 32,  1, 23,  1]])  # 第2条序列前面补5个0至长度10
    print(res)

输出:

E:\anaconda3\python.exe D:\Python\AI\自然语言处理\7-文本长度规范.py 
2024-08-12 22:44:53.195415: I tensorflow/core/util/port.cc:153] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
2024-08-12 22:44:54.269741: I tensorflow/core/util/port.cc:153] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
[[ 5 32 55 63  2 21 78 32 23  1]
 [ 0  0  0  0  0  2 32  1 23  1]]

Process finished with exit code 0

4、小结

  1. 学习了文本特征处理的作用:
    1. 文本特征处理包括为语料添加具有普适性的文本特征,如:n-gram特征,以及对加入特征之后的文本语料进行必要的处理,如:长度规范. 这些特征处理工作能够有效的将重要的文本特征加入模型训练中,增强模型评估指标
  2. 学习了常见的文本特征处理方法:
    1. 添加n-gram特征
    2. 文本长度规范
  3. 学习了什么是n-gram特征:
    1. 给定一段文本序列,其中n个词或字的相邻共现特征即n-gram特征,常用的n-gram特征是bi-gram和tri-gram特征,分别对应n为2和3
  4. 学习了提取n-gram特征的函数:create_ngram_set
  5. 学习了文本长度规范及其作用:
    1. 一般模型的输入需要等尺寸大小的矩阵,因此在进入模型前需要对每条文本数值映射后的长度进行规范,此时将根据句子长度分布分析出覆盖绝大多数文本的合理长度,对超长文本进行截断,对不足文本进行补齐(一般使用数字0),这个过程就是文本长度规范.
  6. 学习了文本长度规范的实现函数:padding
相关推荐
qzhqbb31 分钟前
基于统计方法的语言模型
人工智能·语言模型·easyui
冷眼看人间恩怨1 小时前
【话题讨论】AI大模型重塑软件开发:定义、应用、优势与挑战
人工智能·ai编程·软件开发
2401_883041081 小时前
新锐品牌电商代运营公司都有哪些?
大数据·人工智能
AI极客菌2 小时前
Controlnet作者新作IC-light V2:基于FLUX训练,支持处理风格化图像,细节远高于SD1.5。
人工智能·计算机视觉·ai作画·stable diffusion·aigc·flux·人工智能作画
阿_旭2 小时前
一文读懂| 自注意力与交叉注意力机制在计算机视觉中作用与基本原理
人工智能·深度学习·计算机视觉·cross-attention·self-attention
王哈哈^_^2 小时前
【数据集】【YOLO】【目标检测】交通事故识别数据集 8939 张,YOLO道路事故目标检测实战训练教程!
前端·人工智能·深度学习·yolo·目标检测·计算机视觉·pyqt
Power20246663 小时前
NLP论文速读|LongReward:基于AI反馈来提升长上下文大语言模型
人工智能·深度学习·机器学习·自然语言处理·nlp
数据猎手小k3 小时前
AIDOVECL数据集:包含超过15000张AI生成的车辆图像数据集,目的解决旨在解决眼水平分类和定位问题。
人工智能·分类·数据挖掘
好奇龙猫3 小时前
【学习AI-相关路程-mnist手写数字分类-win-硬件:windows-自我学习AI-实验步骤-全连接神经网络(BPnetwork)-操作流程(3) 】
人工智能·算法
沉下心来学鲁班3 小时前
复现LLM:带你从零认识语言模型
人工智能·语言模型