在NLP(自然语言处理)基础部分,我们将详细介绍以下几个关键技术:文本预处理、文本表示、经典NLP任务。
一、文本预处理
文本预处理是NLP中的第一步,它直接影响后续模型的效果。主要包括以下步骤:
-
文本清洗
- 去除噪声字符:例如HTML标签、表情符号、特殊字符等。
- 标点符号处理:根据任务需求,可以选择保留或去除标点符号。
- 大小写转换:统一将文本转换为小写(或根据具体任务需求保持原样)。
- 去除停用词:停用词是指对文本理解影响较小的高频词,如"的"、"是"等。
-
分词
- 中文分词:中文没有明显的词界,需要使用分词工具进行分词,例如Jieba、THULAC等。
- 英文分词:英文单词之间有空格,可以直接使用split方法或NLTK中的word_tokenize函数。
-
词形还原和词干提取
- 词形还原(Lemmatization):将词语还原到其基本形式,例如"running"还原为"run"。常用工具有NLTK的WordNetLemmatizer。
- 词干提取(Stemming):通过去掉单词的词缀来得到词干,例如"running"提取为"run"。常用算法有Porter Stemmer和Snowball Stemmer。
二、文本表示
将文本转换为机器可理解的数字表示形式,是NLP的核心步骤之一。以下是几种常见的文本表示方法:
-
词袋模型(Bag of Words, BoW)
- 原理:不考虑词序,将文本表示为词的无序集合。每个文本用一个词频向量表示。
- 优点:简单直观,适用于文本分类等任务。
- 缺点:忽略了词序和语义信息,词汇表较大时向量维度高。
-
TF-IDF(Term Frequency-Inverse Document Frequency)
- 原理:在词袋模型的基础上,结合词频和逆文档频率计算每个词的权重。公式:TF-IDF = TF * IDF,其中TF是词频,IDF是逆文档频率。
- 优点:考虑了词在文档中的重要性,能较好地过滤掉常见但无意义的高频词。
- 缺点:仍然忽略了词序和语义信息。
-
词向量(Word Embeddings)
- Word2Vec:通过无监督学习,将词映射到低维向量空间,能够捕捉词语的语义信息。常用模型有CBOW和Skip-Gram。
- GloVe:通过矩阵分解,将词与词共现矩阵分解为低维向量,捕捉词语的全局共现信息。
- FastText:考虑了词内部的字符信息,能处理未登录词(OOV)。
三、经典NLP任务
NLP中的经典任务帮助我们理解并处理自然语言数据,以下是几个重要的任务:
-
文本分类
- 任务:将文本分为预定义的类别。
- 应用:垃圾邮件检测、情感分析、新闻分类等。
- 常用方法:Naive Bayes、SVM、深度学习模型(如LSTM、CNN)。
-
命名实体识别(NER)
- 任务:识别并分类文本中的命名实体,如人名、地名、组织名等。
- 应用:信息抽取、问答系统等。
- 常用方法:CRF、BiLSTM-CRF、预训练语言模型(如BERT)。
-
文本生成
- 任务:生成与输入文本相关的文本。
- 应用:机器翻译、自动摘要、对话系统等。
- 常用方法:语言模型(如RNN、Transformer)、Seq2Seq模型。
-
文本相似度计算
- 任务:计算两段文本之间的相似度。
- 应用:推荐系统、问答系统、文本去重等。
- 常用方法:余弦相似度、Jaccard相似度、BERT等深度学习模型。